1000 resultados para Sistema de visão computacional
Resumo:
Fundamental a vida e ao desenvolvimento de qualquer sociedade, a água é um bem precioso e limitado que está se esgotando e sendo motivo de preocupação mundial. O desperdício, a distribuição desigual, o aumento do consumo e a degradação da qualidade da água são motivos que a tornaram escassa e trouxeram à tona a importância do planejamento e gerenciamento dos recursos hídricos. Frente a esta situação, este trabalho buscou avaliar a disponibilidade hídrica quantitativa e qualitativa da bacia hidrográfica do rio Sapucaí-Mirim, SP. Através da aplicação do simulador hidrológico MIKE BASIN, foi analisado o desempenho do sistema de recursos hídricos, o conflito existente entre os usos múltiplos e a concentração dos parâmetros OD e DBO nas águas do rio que recebe efluentes domésticos, muitos deles sem nenhum tratamento. Apesar da quantidade de água ser suficiente para atender às demandas, o estudo mostra que a geração de energia elétrica está comprometida e a água está se esgotando qualitativamente, evidenciando a necessidade e urgência de se implantar estações de tratamento de esgoto.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.
Resumo:
No setor de energia elétrica, a área que se dedica ao estudo da inserção de novos parques geradores de energia no sistema é denominada planejamento da expansão da geração. Nesta área, as decisões de localização e instalação de novas usinas devem ser amplamente analisadas, a fim de se obter os diversos cenários proporcionados pelas alternativas geradas. Por uma série de fatores, o sistema de geração elétrico brasileiro, com predominância hidroelétrica, tende a ser gradualmente alterada pela inserção de usinas termoelétricas (UTEs). O problema de localização de UTEs envolve um grande número de variáveis através do qual deve ser possível analisar a importância e contribuição de cada uma. O objetivo geral deste trabalho é o desenvolvimento de um modelo de localização de usinas termoelétricas, aqui denominado SIGTE (Sistema de Informação Geográfica para Geração Termoelétrica), o qual integra as funcionalidades das ferramentas SIGs (Sistemas de Informação Geográfica) e dos métodos de decisão multicritério. A partir de uma visão global da área estudada, as componentes espaciais do problema (localização dos municípios, tipos de transporte, linhas de transmissão de diferentes tensões, áreas de preservação ambiental, etc.) podem ter uma representação mais próxima da realidade e critérios ambientais podem ser incluídos na análise. Além disso, o SIGTE permite a inserção de novas variáveis de decisão sem prejuízo da abordagem. O modelo desenvolvido foi aplicado para a realidade do Estado de São Paulo, mas deixando claro a viabilidade de uso do modelo para outro sistema ou região, com a devida atualização dos bancos de dados correspondentes. Este modelo é designado para auxiliar empreendedores que venham a ter interesse em construir uma usina ou órgãos governamentais que possuem a função de avaliar e deferir ou não a licença de instalação e operação de usinas.
Resumo:
La cantidad de datos biológicos y médicos que se produce hoy en día es enorme, y se podría decir que el campo de las ciencias de la vida forma parte ya del club del Big Data. Estos datos contienen información crucial que pueden ayudar a comprender mejor los mecanismos moleculares en los sistemas biológicos. Este conocimiento es fundamental para el progreso en el diagnóstico y en el tratamiento de las enfermedades. La Bioinformática, junto con la Biología Computacional, son disciplinas que se encargan de organizar, analizar e interpretar los datos procedentes de la Biología Molecular. De hecho, la complejidad y la heterogeneidad de los problemas biológicos requieren de un continuo diseño, implementación y aplicación de nuevos métodos y algoritmos. La minería de datos biológicos es una tarea complicada debido a la naturaleza heterogénea y compleja de dichos datos, siendo éstos muy dependientes de detalles específicos experimentales. Esta tesis se basa en el estudio de un problema biomédico complejo: la menor probabilidad de desarrollar algunos tipos de cáncer en pacientes con ciertos trastornos del sistema nervioso central (SNC) u otros trastornos neurológicos, y viceversa. Denominamos a esta condición como comorbilidad inversa. Desde el punto de vista médico, entender mejor las conexiones e interacciones entre cáncer y trastornos neurológicos podría mejorar la calidad de vida y el efecto de la asistencia médica de millones de personas en todo el mundo. Aunque la comorbilidad inversa ha sido estudiada a nivel médico, a través de estudios epidemiológicos, no se ha investigado en profundidad a nivel molecular...
Resumo:
A anotação geográfica de documentos consiste na adoção de metadados para a identificação de nomes de locais e a posição de suas ocorrências no texto. Esta informação é útil, por exemplo, para mecanismos de busca. A partir dos topônimos mencionados no texto é possível identificar o contexto espacial em que o assunto do texto está inserido, o que permite agrupar documentos que se refiram a um mesmo contexto, atribuindo ao documento um escopo geográfico. Esta Dissertação de Mestrado apresenta um novo método, batizado de Geofier, para determinação do escopo geográfico de documentos. A novidade apresentada pelo Geofier é a possibilidade da identificação do escopo geográfico de um documento por meio de classificadores de aprendizagem de máquina treinados sem o uso de um gazetteer e sem premissas quanto à língua dos textos analisados. A Wikipédia foi utilizada como fonte de um conjunto de documentos anotados geograficamente para o treinamento de uma hierarquia de Classificadores Naive Bayes e Support Vector Machines (SVMs). Uma comparação de desempenho entre o Geofier e uma reimplementação do sistema Web-a-Where foi realizada em relação à determinação do escopo geográfico dos textos da Wikipédia. A hierarquia do Geofier foi treinada e avaliada de duas formas: usando topônimos do mesmo gazetteer que o Web-a-Where e usando n-gramas extraídos dos documentos de treinamento. Como resultado, o Geofier manteve desempenho superior ao obtido pela reimplementação do Web-a-Where.
Resumo:
Partiendo de los estudios de la interfaz semántico-sintáctica de Ken Hale y Jay Keyser (1993, 1998) y Jaume Mateu i Fontanals (2000, 2002), asumimos que la estructura argumental determinante de la organización de la sintaxis oracional tiene su origen en constructos semánticos sintácticamente estructurados. Estos constructos definen relaciones configuracionales entre predicados primitivos y argumentos. Existe, por lo tanto, una relación de transparencia entre la semántica y la sintaxis, la cual permite definir el significado oracional en función tanto del contenido conceptual-intencional, opaco para la sintaxis, como del constructo semántico, transparente para la sintaxis. A diferencia de otras propuestas, que postulan un máximo de cuatro constructos semánticos básicos, como es el caso de Hale y Keyser, o de tres constructos semánticos básicos, como es el caso de Mateu i Fontanals, proponemos que la Gramática Universal define un máximo de sólo dos constructos semánticos básicos, uno espacial y uno causativo, los cuales, por recursividad, darían origen a todas las configuraciones sintácticas de cualquier lengua natural. En un sistema lingüístico como el de la Morfología Distribuida, los constructos semánticos así definidos formarían parte de una lista "A" presintáctica, conformada por morfemas abstractos, vg. sin matriz fonológica asociada, los cuales codifican tanto rasgos intencionales-funcionales de índole procedimental, vg. instrucciones sobre la asignación de referencia, como raíces semántico-conceptuales de índole nominal, vg. entidades conceptuales genéricas. Estos constructos, seleccionables por el sistema computacional, definen esqueletos configuracionales básicos que organizan el ensamble de los morfemas abstractos pertinentes a cada derivación. Este modelo, por lo tanto, define la conformación composicional de los apareamientos entre significado y forma, a partir de procesos computacionales previos a la inserción de las piezas de vocabulario. Ofrecemos evidencia morfosintáctica que probaría la pertinencia y la productividad de un sistema binario de constructos semánticos
Resumo:
Partiendo de los estudios de la interfaz semántico-sintáctica de Ken Hale y Jay Keyser (1993, 1998) y Jaume Mateu i Fontanals (2000, 2002), asumimos que la estructura argumental determinante de la organización de la sintaxis oracional tiene su origen en constructos semánticos sintácticamente estructurados. Estos constructos definen relaciones configuracionales entre predicados primitivos y argumentos. Existe, por lo tanto, una relación de transparencia entre la semántica y la sintaxis, la cual permite definir el significado oracional en función tanto del contenido conceptual-intencional, opaco para la sintaxis, como del constructo semántico, transparente para la sintaxis. A diferencia de otras propuestas, que postulan un máximo de cuatro constructos semánticos básicos, como es el caso de Hale y Keyser, o de tres constructos semánticos básicos, como es el caso de Mateu i Fontanals, proponemos que la Gramática Universal define un máximo de sólo dos constructos semánticos básicos, uno espacial y uno causativo, los cuales, por recursividad, darían origen a todas las configuraciones sintácticas de cualquier lengua natural. En un sistema lingüístico como el de la Morfología Distribuida, los constructos semánticos así definidos formarían parte de una lista "A" presintáctica, conformada por morfemas abstractos, vg. sin matriz fonológica asociada, los cuales codifican tanto rasgos intencionales-funcionales de índole procedimental, vg. instrucciones sobre la asignación de referencia, como raíces semántico-conceptuales de índole nominal, vg. entidades conceptuales genéricas. Estos constructos, seleccionables por el sistema computacional, definen esqueletos configuracionales básicos que organizan el ensamble de los morfemas abstractos pertinentes a cada derivación. Este modelo, por lo tanto, define la conformación composicional de los apareamientos entre significado y forma, a partir de procesos computacionales previos a la inserción de las piezas de vocabulario. Ofrecemos evidencia morfosintáctica que probaría la pertinencia y la productividad de un sistema binario de constructos semánticos
Resumo:
Partiendo de los estudios de la interfaz semántico-sintáctica de Ken Hale y Jay Keyser (1993, 1998) y Jaume Mateu i Fontanals (2000, 2002), asumimos que la estructura argumental determinante de la organización de la sintaxis oracional tiene su origen en constructos semánticos sintácticamente estructurados. Estos constructos definen relaciones configuracionales entre predicados primitivos y argumentos. Existe, por lo tanto, una relación de transparencia entre la semántica y la sintaxis, la cual permite definir el significado oracional en función tanto del contenido conceptual-intencional, opaco para la sintaxis, como del constructo semántico, transparente para la sintaxis. A diferencia de otras propuestas, que postulan un máximo de cuatro constructos semánticos básicos, como es el caso de Hale y Keyser, o de tres constructos semánticos básicos, como es el caso de Mateu i Fontanals, proponemos que la Gramática Universal define un máximo de sólo dos constructos semánticos básicos, uno espacial y uno causativo, los cuales, por recursividad, darían origen a todas las configuraciones sintácticas de cualquier lengua natural. En un sistema lingüístico como el de la Morfología Distribuida, los constructos semánticos así definidos formarían parte de una lista "A" presintáctica, conformada por morfemas abstractos, vg. sin matriz fonológica asociada, los cuales codifican tanto rasgos intencionales-funcionales de índole procedimental, vg. instrucciones sobre la asignación de referencia, como raíces semántico-conceptuales de índole nominal, vg. entidades conceptuales genéricas. Estos constructos, seleccionables por el sistema computacional, definen esqueletos configuracionales básicos que organizan el ensamble de los morfemas abstractos pertinentes a cada derivación. Este modelo, por lo tanto, define la conformación composicional de los apareamientos entre significado y forma, a partir de procesos computacionales previos a la inserción de las piezas de vocabulario. Ofrecemos evidencia morfosintáctica que probaría la pertinencia y la productividad de un sistema binario de constructos semánticos
Resumo:
Esta tese teve por objetivo saber como o corpo docente da Universidade Estadual de Mato Grosso do Sul (UEMS) percebe, entende e reage ante a incorporação e utilização das Tecnologias de Informação e Comunicação (TICs) nos cursos de graduação dessa Instituição, considerando os novos processos comunicacionais dialógicos que elas podem proporcionar na sociedade atual. Metodologicamente, a tese é composta por pesquisa bibliográfica, buscando fundamentar as áreas da Educação e Comunicação, assim como a Educomunicação; pesquisa documental para contextualização do lócus da pesquisa e de uma pesquisa exploratória a partir da aplicação de um questionário online a 165 docentes da UEMS, que responderam voluntariamente. Verificou-se que os professores utilizam as TICs cotidianamente nas atividades pessoais e, em menor escala, nos ambientes profissionais. Os desafios estão em se formar melhor esse docente e oferecer capacitação continuada para que utilizem de forma mais eficaz as TICs nas salas de aula. Destaca-se ainda que os avanços em tecnologia e os novos ecossistemas comunicacionais construíram novas e outras realidades, tornando a aprendizagem um fator não linear, exigindo-se revisão nos projetos pedagógicos na educação superior para que estes viabilizem diálogos propositivos entre a comunicação e a educação. A infraestrutura institucional para as TICs é outro entrave apontado, tanto na aquisição como na manutenção desses aparatos tecnológicos pela Universidade. Ao final, propõe-se realizar estudos e pesquisas que possam discutir alterações nos regimes contratuais de trabalho dos docentes, uma vez que, para atuar com as TICs de maneira apropriada, exige-se mais tempo e dedicação do docente.
Resumo:
This work consists of the conception, developing and implementation of a Computational Routine CAE which has algorithms suitable for the tension and deformation analysis. The system was integrated to an academic software named as OrtoCAD. The expansion algorithms for the interface CAE genereated by this work were developed in FORTRAN with the objective of increase the applications of two former works of PPGEM-UFRN: project and fabrication of a Electromechanincal reader and Software OrtoCAD. The software OrtoCAD is an interface that, orinally, includes the visualization of prothetic cartridges from the data obtained from a electromechanical reader (LEM). The LEM is basically a tridimensional scanner based on reverse engineering. First, the geometry of a residual limb (i.e., the remaining part of an amputee leg wherein the prothesis is fixed) is obtained from the data generated by LEM by the use of Reverse Engineering concepts. The proposed core FEA uses the Shell's Theory where a 2D surface is generated from a 3D piece form OrtoCAD. The shell's analysis program uses the well-known Finite Elements Method to describe the geometry and the behavior of the material. The program is based square-based Lagragean elements of nine nodes and displacement field of higher order to a better description of the tension field in the thickness. As a result, the new FEA routine provide excellent advantages by providing new features to OrtoCAD: independency of high cost commercial softwares; new routines were added to the OrtoCAD library for more realistic problems by using criteria of fault engineering of composites materials; enhanced the performance of the FEA analysis by using a specific grid element for a higher number of nodes; and finally, it has the advantage of open-source project and offering customized intrinsic versatility and wide possibilities of editing and/or optimization that may be necessary in the future
Resumo:
This work deals with the analytical, computational and experimental study of phenomena related to the Eddy current induction in low permeability means for embedded electromagnetic braking systems applications. The phenomena of forces generation in opposing to the variation of stationary magnetic flux produced by DC power supplies, set in motion by the application of an external propulsive force are addressed. The study is motivated by search for solving the problem of speed control of PIGs used to verifying and maintaining pipelines, and is led based on the analytical models synthesis, validated by means of computer simulations in Finite Elements environment, provided by engineering support software; and with experimental tests conducted under controlled laboratory conditions. Finally, a damping systems design methodology based on analyzes results conducted throughout the study is presented
Resumo:
The hospital is a place of complex actions, where several activities for serving the population are performed such as: medical appointments, exams, surgeries, emergency care, admission in wards and ICUs. These activities are mixed with anxiety, impatience, despair and distress of patients and their families, issues involving emotional balance both for professionals who provide services for them as for people cared by them. The healthcare crisis in Brazil is getting worse every year and today, constitutes a major problem for private hospitals. The patient that comes to emergencies progressively increase, and in contrast, there is no supply of hospital beds in the same proportion, causing overcrowding, declines in the quality of care delivered to patients, drain of professionals of the health area and difficulty in management the beds. This work presents a study that seeks to create an alternative tool that can contribute to the management of a private hospital beds. It also seeks to identify potential issues or deficiencies and therefore make changes in flow for an increase in service capacity, thus reducing costs without compromising the quality of services provided. The tool used was the Computational Simulation –based in discrete event, which aims to identify the main parameters to be considered for a proper modeling of this system. This study took as reference the admission of a private hospital, based on the current scenario, where your apartments are in saturation level as its occupancy rate. The relocation of project beds aims to meet the growing demand for surgeries and hospital admissions observed by the current administration.
Resumo:
The understanding of the occurrence and flow of groundwater in the subsurface is of fundamental importance in the exploitation of water, just like knowledge of all associated hydrogeological context. These factors are primarily controlled by geometry of a certain pore system, given the nature of sedimentary aquifers. Thus, the microstructural characterization, as the interconnectivity of the system, it is essential to know the macro properties porosity and permeability of reservoir rock, in which can be done on a statistical characterization by twodimensional analysis. The latter is being held on a computing platform, using image thin sections of reservoir rock, allowing the prediction of the properties effective porosity and hydraulic conductivity. For Barreiras Aquifer to obtain such parameters derived primarily from the interpretation of tests of aquifers, a practice that usually involves a fairly complex logistics in terms of equipment and personnel required in addition to high cost of operation. Thus, the analysis and digital image processing is presented as an alternative tool for the characterization of hydraulic parameters, showing up as a practical and inexpensive method. This methodology is based on a flowchart work involving sampling, preparation of thin sections and their respective images, segmentation and geometric characterization, three-dimensional reconstruction and flow simulation. In this research, computational image analysis of thin sections of rocks has shown that aquifer storage coefficients ranging from 0,035 to 0,12 with an average of 0,076, while its hydrogeological substrate (associated with the top of the carbonate sequence outcropping not region) presents effective porosities of the order of 2%. For the transport regime, it is evidenced that the methodology presents results below of those found in the bibliographic data relating to hydraulic conductivity, mean values of 1,04 x10-6 m/s, with fluctuations between 2,94 x10-6 m/s and 3,61x10-8 m/s, probably due to the larger scale study and the heterogeneity of the medium studied.
Resumo:
Sistema-de-sistemas (System-of-Systems - SoS) é um tipo emergente de sistema computacional formado por um grupo de sistemas constituintes, que são independentes e heterogêneos e se unem para compor um sistema de larga escala visando alcançar uma missão global. Cada sistema constituinte possui seus próprios objetivos, missões individuais, e colaboram para a realização da missão do SoS, chamada missão global. Existe uma complexidade inerente no conjunto de missões que estão envolvidas em um SoS, esse deve-se principalmente à natureza independente dos sistemas constituintes, que tendem a evoluir independentemente, potencialmente mantidos por organizações distintas, além dos conflitos de interesse que podem surgir com essa evolução. Com isso, torna-se essencial prover uma linguagem bem definida para descrição e avaliação dessas missões, relacionando-as entre si e provendo um documento comum que possa ser utilizado por todas as partes envolvidas. Essa linguagem deve ser capaz de expressar as missões individuais e globais, dando suporte a todos os relacionamentos existentes entre essas missões, além de expressar informações relacionadas a realização dessas missões. O objetivo desse trabalho é apresentar e avaliar uma linguagem para descrição de missões. Visando a definição dessa linguagem, esse trabalho apresenta um mapeamento sistemático acerca dos mecanismos existentes para descrição de missões em SoS, identificando os elementos-chave que compõem a descrição de uma missão nesse contexto. A partir desse mapeamento, propõe-se um modelo conceitual para missões e uma linguagem para descrição de missões. Essa linguagem independe de documentos de arquitetura e outros tipos de modelos de software, visando possibilitar a integração da linguagem de definição de missões em diferentes modelos de desenvolvimento.