235 resultados para Prognóstico baseado em dados
Resumo:
Esta tese visa estudar um procedimento obstétrico clínico rotineiro, recomendado por várias sociedades obstétricas no mundo, inclusive a Federação Brasileira das Sociedades de Ginecologia e Obstetrícia e o Ministério da Saúde do Brasil, a medida de altura uterina. A recomendação é medir a distância entre o bordo superior da sínfise púbica e o fundo do útero (com fita inextensível, marcada em centímetros) a cada consulta pré-natal, e cotejar o valor obtido a valores de referência, determinados por uma curva padrão definida por percentis de altura uterina obtidos ao longo da gravidez. O objetivo desse procedimento é detectar anormalidades no crescimento fetal, seja crescimento excessivo ou insuficiente. O crescimento fetal excessivo está associado a aumento na morbidade perinatal, por aumento dos casos de hipóxia e de traumatismo secundários a parto distócico, além de maior risco de obesidade e diabetes tipo 2 na vida adulta. Também eleva a morbidade materna, por aumento no número de cesáreas e partos instrumentados. A importância da detecção de gestações com crescimento fetal insuficiente reside nos índices aumentados de mortalidade e de morbidade nesses recém-nascidos, no período perinatal, neonatal e pós-natal, até à vida adulta. Método de baixos custo e complexidade, não invasivo e aplicável durante a consulta pré-natal usual, a medida da altura uterina ao longo da gestação tem algumas das características desejáveis em um teste de rastreamento. Entretanto, seu desempenho na identificação das anormalidades do crescimento fetal intra-uterino tem achados bastante desiguais na literatura. Assim como grande parte das características fetais, a altura uterina é diretamente dependente do tempo de gestação e, portanto, erros na datação da gestação podem interferir no desempenho do método como indicador de anormalidade de crescimento intra-uterino Esta tese, baseada em dados do Estudo Brasileiro do Diabetes Gestacional (EBDG), avalia o impacto clínico da medição rotineira da altura uterina em gestantes que fazem acompanhamento pré-natal no Sistema Único de Saúde (SUS). No primeiro artigo, descrevemos a distribuição das medidas de altura uterina a cada semana de gestação obtidas no EBDG e a confrontamos com a distribuição descrita no estudo do Centro Latino-Americano de Perinatologia (CLAP). Determinamos também o desempenho diagnóstico das duas distribuições na identificação de recém-nascidos pequenos e grandes para a idade da gestação nas gestantes do estudo brasileiro. No segundo artigo, derivam-se e testam-se regras clínicas para a detecção pré-natal de recém-nascidos pequenos para a idade gestacional, agregando à medida da altura uterina outras características clínicas associadas a esse desfecho da gravidez. Utiliza-se a divisão randômica da população estudada em duas coortes, uma para derivação das regras clínicas de predição e a outra para a testagem e validação dessas regras.
Resumo:
Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.
Resumo:
Hipertrofia ventricular esquerda é um importante fator de risco em doença cardiovascular e pode ser responsável por parte do elevado risco cardiovascular associado a diabetes. Apesar de que o estresse hemodinâmico seja classicamente indicado como causa da injúria miocárdica que leva ao remodelamento, a injúria associada aos fatores neuro-humorais e a sinalização celular através da ativação imuno-inflamatória também desempenham um papel, acompanhando os mecanismos recentemente descritos na síndrome metabólica, particularmente na obesidade, onde a ativação do sistema imune inato leva a uma resposta inadequada crônica mediada por citocinas em diversos sistemas corpóreos. A ecocardiografia tem sido usada para identificar anormalidades da estrutura cardíaca, porém, variações metodológicas e os diversos ajustes para os determinantes da massa ventricular como idade, sexo, tamanho corporal e outros correlatos clínicos são motivo de debate, assim como a definição dos estados de anormalidade, tanto para hipertrofia ventricular esquerda, como para outras medidas da estrutura ventricular. Em uma amostra populacional de 1479 Afro- Americanos do Estudo ARIC, investigamos de forma estratificada e multivariada as associações independentes entre diabetes e as alterações estruturais do ventrículo esquerdo, definidas por hipertrofia ventricular, aumento da espessura relativa e padrões geométricos anormais. Encontramos prevalências elevadas dea alterações estruturais nos indivíduos com diabetes. Diabetes associou-se com hipertrofia ventricular em ambos os sexos e com espessura parietal aumentada e padrões geométricos anormais nas mulheres. Na maior parte dos modelos, as associações com diabetes foram minimizadas com os ajustes para obesidade, sugerindo que o impacto da obesidade sobre as alterações estruturais vistas em diabetes pode ser mediado por fatores outros do que a hiperglicemia. Essas novas evidências estão em sintonia com o conhecimento contemporâneo descrito.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Neste trabalho desenvolvemos uma metodologia numérica para a solução do escoamento em torno de um vórtice. Como a análise completa deste tipo de fluxo não é uma tarefa fácil, simplificações quanto ao escoamento e ao método numérico são necessárias. Também investigamos o comportamento das soluções das equações governantes (Navier-Stokes) quando o tempo tende ao infinito. Nesse sentido, dividimos este trabalho em duas partes: uma numérica e outra analítica. Com o intuito de resolver numericamente o problema, adotamos o método de diferenças finitas baseado na formulação incompressível das equações governantes. O método numérico para integrar essas equações é baseado no esquema de Runge- Kutta com três estágios. Os resultados numéricos são obtidos para cinco planos bidimensionais de um vórtice com números de Reynolds variando entre 1000 e 10000. Na parte analítica estudamos taxas de decaimento das soluções das equações de Navier-Stokes quando os dados iniciais são conhecidos. Também estimamos as taxas de decaimento para algumas derivadas das soluções na norma L2 e comparamos com as taxas correspondentes da solução da equação do calor.
Resumo:
A temática central desta tese consiste em avaliar, ao longo da cadeia produtiva do setor agropecuário, quais são as atividades que interferem diretamente na constituição de valor do produto percebido pelo cliente. Para tanto, está fundamentada, teoricamente, no método do Custeio Baseado em Atividades (ABC), para a decomposição e análise da cadeia de valor do produto carne bovina, bem como na perspectiva do Marketing, que é fundamental para o entendimento e aproximação dos aspectos pertinentes ao consumidor final. A metodologia utilizada foi o estudo de caso, realizado através do desdobramento de variadas técnicas de coleta de dados, aplicadas junto a especialistas acadêmicos e da produção. Verificou-se uma concentração de valoração nas atividades localizadas próximo ao final do processo de produção. Esta variação está em concordância com a distribuição das margens, ao longo da cadeia analisada. Percebe-se, então, que o recorte do setor agropecuário avaliado neste estudo não está adequado, no que diz respeito aos esforços e investimentos, às demandas e expectativas valorativas do mercado. Do ponto de vista do consumidor, evidencia-se a valorização predominante de atividades que interferem apenas na aparência do produto, em detrimento de outras ligadas à qualidade.
Resumo:
A quantidade e diversidade dos dados disponíveis na Web aumentam constantemente. Os motores de busca disponíveis, que usam palavras-chave, fornecem ao usuário resultados inexatos. Atualmente, os sistemas convencionais de consultas utilizam técnicas de base sintática. As pesquisas voltam-se para o estudo de abordagens de consultas através de conceitos, permitindo a recuperação semântica. Neste sentido, algumas propostas envolvem a criação de metadados que seguem modelos de ontologias.O propósito deste trabalho é apresentar, avaliar e permitir uma melhor compreensão de um conjunto de conceitos, linguagens e ferramentas que são usadas na Web Semântica. Dentre elas, linguagens para construção de ontologias e linguagens para consultas; além das ferramentas associadas que objetivam o armazenamento, manutenção e anotação em ontologias. Para atingir este propósito, estas linguagens e ferramentas são aplicadas a um caso de dimensão e complexidade realistas, o Currículo Lattes. O trabalho apresenta um modelo de metadados com semântica para o Currículo Lattes. Este modelo é baseado numa ontologia especificada na linguagem DAML+OIL. Além disso, é apresentada uma avaliação dos métodos de instanciação desta ontologia. Uma avaliação dos métodos e/ou linguagens de consulta mais adequadas para a consulta semântica das informações também é apresentada.
Resumo:
Neste trabalho, a literatura (estado da arte) sobre Agricultura de Precisão é revisada. Um equipamento para a aquisição de dados foi desenvolvido, foi feita uma descrição detalhada do mesmo e são apresentados os testes de campo para sua validação.