997 resultados para De cortes nobres dados prelimin
Resumo:
RESUMO - É reconhecido o impacto negativo e prejudicial que o tempo de espera tem para radioterapia sobre o controlo tumoral e a taxa de sobrevida, bem como a importância de estabelecer tempos máximos para o início do tratamento, de forma a garantir o cumprimento de uma boa prática. O presente projecto de investigação tem o objectivo de construir e validar uma grelha de observação, como instrumento de recolha de dados, que se pretende no futuro aplicar, de forma a poder contribuir para o estudo sobre o tempo de espera para radioterapia em Portugal. Para alcançar o objectivo proposto, optou-se pela metodologia usada por Drinkwater e Williams na re-auditoria efectuada no Reino Unido pelo Royal College of Radiologists, em 2007, sobre os tempos de espera para radioterapia. A grelha de observação elaborada foi baseada na grelha utilizada por Drinkwater e Williams, na revisão da literatura, e tendo em consideração a realidade portuguesa. Após a análise das respostas dos peritos, ao questionário de avaliação e adequação do instrumento à realidade portuguesa, parece existir concordância na adequação do instrumento, o que nos permite afirmar a possibilidade da aplicação do mesmo nos centros de radioterapia de Portugal. --- --------------------------------ABSTRACT - It is recognized the negative impact that radiotherapy waiting time have in tumour control and survival, as well the importance of establish maximum waiting times for the start of the treatment, in the sense to guarantee a good practice. The present investigation project aim is to build and validates a data collection tool, which pretends to apply in the future, in the sense to contribute for the study of the radiotherapy waiting time in Portugal. To accomplish the project aim, we chose the method used by Drinkwater and Williams in the re-audit performed in United Kingdom for the Royal College of Radiologists, in 2007, about the radiotherapy waiting time. The data collection tool built was based on the data collection tool used by Drinkwater and Williams, on the literature review and taking in account the Portuguese reality. After the analyse of the experts answers, it seems to exist agreement about the adequacy of the data collection tool, which allow us to claim the possibility of the tool application at radiotherapy centres, in Portugal.
Resumo:
A 20 de outubro celebra-se o Dia Mundial da Estatística, esta data foi instituída pela Assembleia Geral da ONU e celebrada pela primeira vez em 2010. Com esta iniciativa pretende-se destacar o papel que a Estatística desempenha a nível mundial para o conhecimento e desenvolvimento das nossas sociedades, bem como a importância das instituições nacionais e internacionais que produzem estatísticas oficiais. Este trabalho que apresentamos resulta da reflexão dos alunos do 1º ano do curso de Relações Públicas e Comunicação Empresarial sobre o tema deste ano – Melhores Dados. Melhores Vidas.
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Terminologia e Gestão da Informação de Especialidade
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática
Resumo:
As freguesias de Lisboa sofreram profundas alterações ao longo dos séculos XIX e XX. Não só foram alteradas em número, mas também na sua dimensão geográfica. A última grande reforma, datada de 1959, modificou de tal forma os contornos das freguesias lisboetas que inviabiliza a utilização dos contornos actuais para a realização de estudos no passado. Procurando dar resposta a esta problemática e com base em cartografia histórica, foram desenhadas as freguesias em três períodos (1826, 1852 e 1909) sendo incluídas num sistema de informação geográfica, o que possibilita não só a análise da evolução administrativa da capital, mas também o estudo de muitas variáveis históricas, de base paroquial, para todo o século XIX e início do século XX.
Resumo:
O presente trabalho, além da revisão da literatura sobre quimiotipagem do C. neoformans, com novos dados sobre a epidemiologia da criptococose, teve por finalidade principal a caracterização das duas variedades desta levedura em pacientes com neurocriptococose, HIV + e HIV -. As variedades neoformans e gattii estão hoje bem definidas bioquimicamente, com o emprego do meio C.G.B., proposto por KWON-CHUNG et al. (1982) 24. O isolamento do C. neoformans var. gattii das flores e folhas do Eucalyptus camaldulensis e do Eucalyptus tereticornis, na Austrália, através dos trabalhos de ELLIS & PFEIFFER (1990)16 e PFEIFFER & ELLIS (1992)41, possibilitou investigações epidemiológicas das mais interessantes sobre este microrganismo, levedura capsulada a qual SANFELICE50, 51, na Itália, em 1894 e 1895 despertou a atenção do meio médico. BUSSE8, em 1894, descrevia o primeiro caso de criptococose humana sob a forma de lesão óssea, simulando sarcoma. As pesquisas nacionais sobre o assunto em foco foram destacadas, seguindo-se a experiência dos Autores com o meio de C.G.B. (L - canavanina, glicina e azul de bromotimol). Foi possível, através deste meio o estudo de 50 amostras de líquor, sendo 39 procedentes de aidéticos (78%) e 11 de não aidéticos (22%). De pacientes HIV+, 37 (74%) foram identificados como C. neoformans var. neoformans e 2 (4%) como C. neoformans var. gattii. Dos HIV- 8 ( 16%) foram classificados como C. neoformans var. neoformans e 3 (6%) como C. neoformans var. gattii. Através deste trabalho, evidencia-se a importância da neurocriptococose, principalmente entre os aidéticos, demonstrando-se mais uma vez o interesse do meio CGB na quimiotipagem do C. neoformans em suas duas variedades, ganhando em importância a demonstração de que duas espécies de eucalipto podem funcionar como "árvores-hospedeiras" para o Cryptococcus neoformans var. gattii.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia e Gestão Industrial
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Ciências da Comunicação
Resumo:
Os sensores hiperespectrais que estão a ser desenvolvidos para aplicações em detecção remota, produzem uma elevada quantidade de dados. Tal quantidade de dados obriga a que as ferramentas de análise e processamento sejam eficientes e tenham baixa complexidade computacional. Uma tarefa importante na detecção remota é a determinação das substâncias presentes numa imagem hiperespectral e quais as suas concentrações. Neste contexto, Vertex component analysis (VCA), é um método não-supervisionado recentemente proposto que é eficiente e tem a complexidade computacional mais baixa de todos os métodos conhecidos. Este método baseia-se no facto de os vértices do simplex corresponderem às assinaturas dos elementos presentes nos dados. O VCA projecta os dados em direcções ortogonais ao subespaço gerado pelas assinaturas das substâncias já encontradas, correspondendo o extremo desta projecção à assinatura da nova substância encontrada. Nesta comunicação apresentam-se várias optimizações ao VCA nomeadamente: 1) a introdução de um método de inferência do sub-espaço de sinal que permite para além de reduzir a dimensionalidade dos dados, também permite estimar o número de substâncias presentes. 2) projeção dos dados é executada em várias direcções para garantir maior robustez em situações de baixa relação sinal-ruído. As potencialidades desta técnica são ilustradas num conjunto de experiências com dados simulados e reais, estes últimos adquiridos pela plataforma AVIRIS.
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática
Resumo:
A separação de dados hiperespectrais pretende determinar quais as substâncias presentes numa imagem e quais as suas concentrações em cada pixel. Esta comunicação apresenta um método não-supervisionado, denominado de Análise de Componentes Dependentes (DECA), que efectua a separação destes dados automaticamente. Este método assume que cada pixel é uma mistura linear das assinaturas (reflectâncias ou radiâncias) das substâncias presentes pesadas pelas respectivas concentrações (abundâncias). Estas abundâncias são modeladas por misturas de distribuições de Dirichlet, que por si garantem as restrições de não-negatividade e soma unitária impostas pelo processo de aquisição. A matriz de assinaturas é estimada por um algoritmo Esperança-Maximização generalizado (GEM). O método DECA tem um desempenho melhor que os métodos baseados em análise de componentes independentes e que os métodos baseados na geometria dos dados. Nesta comunicação apresentam-se resultados desta metodologia, com dados simulados (baseados em reflectâncias espectrais da base de dados do laboratório USGS) e com dados hiperespectrais reais adquiridos pelo sensor AVIRIS, ilustrando a potencialidade da técnica.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Microelectrónica e Nanotecnologia
Resumo:
Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.
Resumo:
Atualmente, as estratégias que as empresas optam por seguir para a maximização de recursos materiais e humanos, podem representar a diferença entre o sucesso e o fracasso. A seleção de fornecedores é um fator bastante crítico para o desempenho da empresa compradora, sendo por vezes necessária a resolução de problemas que apresentam um elevado grau de complexidade. A escolha dos métodos a ser utilizados e a eleição dos critérios mais relevantes foi feito com base no estudo de diversos autores e nas repostas obtidas a um inquérito online difundido por uma amostra de empresas portuguesas, criado especificamente para compreender quais os fatores que mais peso tinham nas decisões de escolha de parceiros. Além disso, os resultados adquiridos desta forma foram utilizados para conceder mais precisão às ponderações efetuadas na ferramenta de seleção, na escolha dos melhores fornecedores introduzidos pelos utilizadores da mesma. Muitos estudos literários propõem o uso de métodos para simplificar a tarefa de seleção de fornecedores. Esta dissertação aplica o estudo realizado nos métodos de seleção, nomeadamente o Simple Multi-Attribute Rating Technique (SMART) e Analytic Hierarchy Process (AHP), necessários para o desenvolvimento de uma ferramenta de software online que permitia, a qualquer empresa nacional, obter uma classificação para os seus fornecedores perante um conjunto de critérios e subcritérios.