917 resultados para Localização automática
Resumo:
O fogo, grande elemento de evolução humana, é também, em potencial, um dos seus maiores inimigos. Muitos são os fogos florestais e urbanos, que ocorrem diariamente, provocando mortes, avultados prejuízos materiais, perda de valor patrimonial, assim como perda de valor simbólico. As causas principais dos incêndios em edifícios são a deficiência nas canalizações elétricas, a má utilização de equipamentos elétricos, nomeadamente ferros, fogões, fornos e aquecedores elétricos, bem como a negligência na utilização do fogo. Os Sistemas Automáticos de Deteção de Incêndio (SADI) são hoje encarados um sistema integrante e imprescindível dos edifícios, como elemento de garantia da segurança e do bem-estar das pessoas, e da preservação dos seus bens.
Resumo:
Introdução: A pseudotrombocitopenia dependente de EDTA (EDTA-PTCP) consiste numa falsa diminuição na contagem de plaquetas (PLT), em amostras de sangue colhidas em EDTA, devido a aglutinação plaquetar. Estudos publicados referem que a aglutinação plaquetar na presença de EDTA se pode evitar e dissociar com a adição de um aminoglicosídeo. Objectivos: 1) avaliar a eficácia do aminoglicosídeo gentamicina (Gent) na dissociação de aglutinados plaquetares em amostras de sangue total colhidas em EDTA; 2) verificar se existe alterações nos outros parâmetros hematológicos e na morfologia do sangue periférico, após adição de Gent; 3) detetar o envolvimento das frações GPllb ou GPllIa do complexo GPllb/llIa no mecanismo de formação dos aglutinados plaquetares induzidos pelo EDTA. Material e Métodos: 145 amostras de sangue periférico em EDTA-K3 e com trombocitopenia, processadas no CELL-DYN Sapphire TM. De acordo com padrão gráfico característico em Mono-Poly I, amostras reprocessadas após adição de 20 μL de Gent, com a mesma metodologia. Esfregaços de sangue periférico (ESP) corados por May-Grünwald-Giemsa. 13 amostras processadas com contagem imunológica de PLT (CD61), antes e após Gent. Comparação dos valores dos diferentes parâmetros antes e após adição de Gent: Teste T- student emparelhado, significado estatístico: p<0,05. Resultados: 138 amostras com diferença estatisticamente significativa na contagem de PLT antes e após Gent, com desaparecimento do padrão inicial em Mono-Poly I: 97 EDTA-PTCP (p<0,0001) e 41 trombocitopenias reais (p<0,0001). Sete amostras sem aumento na contagem de PLT (P=0,15) com Gent, nem alteração em Mono-Poly I, sugerindo presença de microcoágulos, confirmados em ESP. Principais parâmetros hematológicos sem diferenças significativas (p>0,05), após adição de Gent, com exceção do VPM (P<0,0001) e Ptc (p<0,0001). Morfologia do sangue periférico sem alterações. As treze amostras processadas com CD61 antes de Gent tinham um número de PLT superior ao obtido na contagem ótica antes de Gent. Conclusões: A adição de Gent às amostras em EDTA induz uma rápida dissociação dos aglutinados, sem causar alterações morfológicas nem dos principais parâmetros hematológicos. Apenas a GPllb parece estar envolvida no mecanismo de formação dos aglutinados plaquetares. O uso de Gent revelou-se muito útil, rápido e com baixo custo nas EDTA-PTCP, permitindo rentabilizar a tecnologia existente, com grande benefício para o doente.
Resumo:
A injecção de Zamak em Portugal é uma actividade corrente, sendo usada na produção de inúmeras peças de pequena dimensão, nomeadamente em acessórios de vestuário, no fabrico de cablagens metálicas para a indústria automóvel, no fabrico de placas indicativas de marcas nos mais diversos produtos, entre muitas outras aplicações. Quando a quantidade de Zamak injectada em cada ciclo é relativamente baixa, o tempo que demora a consumir um lingote é bastante longo, pelo que não se justifica que o forno esteja equipado com um sistema de alimentação automática de lingotes. No entanto, quando as peças injectadas possuem uma maior massa ou o número de cavidades por molde é maior, um lingote pode ser consumido num período de tempo suficientemente curto para ser necessário um operário permanentemente atento à alimentação do forno. Neste caso, justifica-se a inclusão de um sistema automático que vá descarregando lingotes à medida que aquele que está a abastecer o forno é consumido. O presente trabalho foi elaborado com base na necessidade de uma empresa fabricante de máquinas para a injecção de Zamak, a qual pretendia dotar alguns dos seus modelos com este sistema, indo de encontro às necessidades dos seus clientes e ampliando a gama de acessórios que passa a poder disponibilizar em torno de cada equipamento.
Resumo:
Bogotá (Colombia): Universidad de La Salle. Facultad de Ingeniería. Programa de Ingeniería en Automatización
Resumo:
Bogotá (Colombia): Universidad de La Salle. Facultad de Ingeniería. Programa de Ingeniería en Automatización
Resumo:
A ablação por cateter de radiofrequência tornou-se o tratamento de escolha para os pacientes com síndrome de Wolff-Parkinson-White, sintomáticos. A localização da via acessória a partir da morfologia do QRS no eletrocardiograma basal, torna-se útil para o planeamento do procedimento de ablação, por permitir um conjunto de informações que ajudam na escolha da melhor abordagem terapêutica, em particular no que respeita ao intervalo para a ablação, a necessidade de punção transeptal e o risco de bloqueio aurículo-ventricular, se a via acessória estiver próxima do nódulo aurículo-ventricular ou do feixe de His. Estão descritos vários algoritmos para prever a localização da via acessória a partir da análise da morfologia do QRS basal. Os seus autores relatam elevados índices de acerto, todavia, estudos subsequentes obtiveram resultados distintos, com índices de acerto menores. O presente estudo tem como objetivo principal a avaliação da capacidade diagnóstica do eletrocardiograma de doze derivações na localização da via acessória no padrão de Wolff- Parkinson-White. Os dados clínicos necessários a este estudo foram recolhidos no Serviço de Cardiologia do Centro Hospitalar S. João – EPE, através da consulta dos exames eletrocardiograma e estudo eletrofisiológico, nos indivíduos com diagnóstico prévio de síndrome de Wolff-Parkinson- White. Numa amostra formada por 111 indivíduos de ambos os géneros e com idade média de 36,54 (± 15,27) anos (idade mínima de 7 anos e idade máxima de 75 anos), procedeu-se à comparação da localização da via acessória no estudo eletrofisiológico, com a obtida pela aplicação dos algoritmos de Arruda et al., Boersma et al., Chiang et al., Ávila et al., Fitzpatrick et al., Iturralde et al. e Xie et al. (harmonizadas para todos os algoritmos, as localizações possíveis das vias acessórias). Em volta do anel mitral, encontravam-se distribuídas 59 vias acessórias (53,15%), sendo 52 as vias acessorias distribuídas em torno do anel tricúspide (46,85%). Nesta distribuição não se observaram diferenças estatisticamente significativas de acordo com o género. O acerto global em todos os algoritmos variou entre 27,00% a 47,00%, aumentando para 40,00% a 76,00%, incluindo as localizações adjacentes. A concordância entre os investigadores variou entre 40,00% a 80,00%, observando-se que em relação ao valor médio de concordância, os algoritmos com menores localizações possíveis para as vias acessórias, obtiveram melhor resultado (64,00%). O acerto para as vias acessórias septais (51 no total) variou entre 2,00% a 52,20% (aumentando para 5,90% a 90,20%, incluindo as localizações adjacentes). As vias acessórias direitas, 13 no total, obtiveram acerto entre 7,70% a 69,20% (aumentando para 42,90% a 100%, incluindo as vias acessórias adjacentes). Por último, as vias acessórios esquerdas, 47 no total, obtiveram acerto entre 21,70% a 54,50% (aumentando para 50,00% a 87,00%, incluindo as vias acessórias adjacentes). Para esta distribuição das vias acessórias (localização septal, direita e esquerda), não se observaram diferenças estatisticamente significativas, de acordo com o género. Os resultados obtidos revelam que todos os algoritmos obtiveram valores de acerto inferiores aos enunciados pelos seus autores, permitindo concluir que embora o eletrocardiograma constitua um método muito importante no diagnóstico da pré-excitação ventricular do tipo Wolff-Parkinson-White, este não é sensível, nem específico para a deteção da localização da via acessória.
Resumo:
Para determinar si el eje de una transmisión en un sistema mecánico podría trabajar continuamente de manera satisfactoria, se requiere ser analizado por deformación y esfuerzos, en el que, se determinan los valores de mayor magnitud, localización y dirección de lo que se denomina esfuerzos y deformaciones principales. Se analiza la deformación que experimenta el eje a través de la teoría de la curva elástica para comportamiento elástico. Para evaluar los resultados de comportamiento mecánico en el eje de trasmisión, se consideran propuestas de material y de geometría de las diferentes secciones del eje, y desarrollando un programa de cálculo de deformación a través de Excel se determina la variación de esta a través de toda la longitud, además se obtiene como resultado la localización, dirección y magnitud máxima de la deformación en el eje.
Resumo:
El destacado volumen de negocio a nivel mundial ha convertido a los videojuegos en el principal protagonista dentro de la industria del entretenimiento. Este hecho no ha pasado desapercibido para la comunidad científica, que se ha visto surtida de nuevos retos y desafíos que abordar. La generación automática de contenido son un conjunto de técnicas que permiten generar de forma algorítmica contenido específico para videojuegos. Estas técnicas reducen costes de producción y diseño, sirven como fuente de creatividad e inspiración para el diseñador, ahorran recursos computacionales a la hora de ejecutar el juego y permiten adaptar el juego al jugador para que la experiencia de juego sea única y personalizada. Generalmente el criterio usado para la generación es el de la jugabilidad, es decir, que el contenido cumpla con las reglas del juego. Esta tesis define una metodología para la generación automática de contenido para juegos de estrategia en tiempo real en base a unos criterios que van más allá de que el contenido sea válido. Esta metodología propone el uso de algoritmos evolutivos para la generación del contenido siguiendo un esquema de generación y prueba. La primera característica exigible al contenido generado que se ha estudiado ha sido el equilibrio entre jugadores. También se ha descrito un método de generación enfocado en esta característica que es capaz de crear mapas que no proporcionan ventaja alguna a los jugadores, independientemente de su habilidad o estrategia elegida. Otra característica deseable que evita que las partidas se conviertan en algo aburrido y monótono y que también ha sido estudiada es el dinamismo. A la hora de buscar el dinamismo se ha optado por dos enfoques distintos, uno basado en los recursos que mantienen los jugadores a lo largo de la partida y otro basado en las confrontaciones entre ellos, que se centra en las batallas y el nivel de naves perdidas. Se han analizado ambas características en conjunto, detectándose que la definición de dinamismo que se ha usado como objetivo de la optimización incluye implícitamente una componente de equilibrio, concluyéndose por tanto que el equilibrio es compatible con un nivel medio de dinamismo. Además, se ha estudiado un enfoque multi-objetivo del problema que ha sacado a la luz otras relaciones entre equilibrio y dinamismo y mediante el cual se ha establecido que conforme aumenta el equilibrio se produce un leve descenso en el dinamismo, acabando con un descenso brusco en la frontera superior del equilibrio. Al igual que con el equilibrio y el dinamismo, se ha abordado el problema de mejorar la estética de los mapas siguiendo dos enfoques, uno geométrico que se basan en la geométrica espacial del mapa (coordinadas y distancias), y otro topológico que se basan en propiedades cualitativas de los mapas que no se ven afectadas por transformaciones geométricas simples y que han sido obtenidas a partir del grafo de esferas de influencia. Los resultados indican que existe una relación lineal entre la diferencia con los mapas estéticos y con los que no lo son, lo que da una idea de la densidad del espacio de búsqueda. Con respecto a las medidas utilizadas, se observa que hay algunas de ellas que tienen una mayor influencia sobre el valor de aptitud que el resto de variables. Por último, tras realizar un análisis cruzado de las soluciones obtenidas con ambos enfoques se observa que ambos enfoques son capaces de generar mapas adecuados, aunque hay que destacar que existe una mayor diversidad en las soluciones del enfoque geométrico que en las del topológico, además de que las soluciones geométricas obtenidas quedan más cerca del conjunto de mapas estéticos que las propias soluciones topológicas según la medida de aptitud de éstas últimas.
Resumo:
Dissertação de Mestrado, Engenharia Eletrónica e Telecomunicações, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2014
Resumo:
Dissertação de dout. em Electrónica e Computação, Faculdade de Ciências e Tecnologia, Univ. do Algarve, 2004
Resumo:
Este artículo es parte de un trabajo emergente dirigido a la creación automática de juegos de estrategia en tiempo real (RTS), lo cual incluye la generación de contenido, la creación de la inteligencia artificial del juego (es decir, de los jugadores virtuales) y de la propia mecánica del mismo. En este artículo se describe un editor que consta de múltiples parámetros que pueden configurarse para activar o desactivar decenas de reglas que pueden cambiar la mecánica de un juego RTS. El trabajo aquí descrito se realiza en el contexto del juego Eryna, una plataforma de experimentación implementada en la Universidad de Málaga. El editor de reglas es una herramienta que será usada en el futuro para permitir la evolución automática de las reglas de este videojuego y la creación de distintas mecánicas para el mismo. Lo que presentamos aquí debe ser evaluado como un trabajo emergente en el cual estamos trabajando.
Resumo:
A Condução de um veículo automóvel tem-se tornado cada vez mais automatizada ao longo dos anos. Este processo tem-se vindo a desenvolver com o intuito de facilitar cada vez mais a condução dos veículos, de prevenir acidentes rodoviários ou ainda de ser utilizado em operações militares. Este trabalho tem como principal foco o estudo da aplicação de dois dos principais métodos de cálculo da localização probabilística à localização de um veículo automóvel autónomo: o Filtro Estendido de Kalman e o Filtro de Partículas. Foram implementadas várias versões de ambos os filtros, quer em simulação, quer num veículo real, tendo por base, em termos de sensores, a odometria do robô, uma unidade inercial e um GPS. Este trabalho surge na continuação de vários projetos anteriores, com foco no desenvolvimento de um veículo autónomo de baixo custo, acrescentando-lhe a funcionalidade de se localizar. Neste sentido, o trabalho desenvolvido servirá de base para a navegação autónoma em trabalhos futuros.
Resumo:
O processamento de linguagem natural e as ontologias são ferramentas cuja interação permite uma melhor compreensão dos dados armazenados. Este trabalho, ao associar estas duas áreas aos elementos disponíveis numa base de dados prosopográfica, tornou possível identificar e classificar relacionamentos entre setores de ocupação na forma como eram designados na época, setores de atividade num formato mais próximo do de hoje e o estatuto social que essas incumbências tinham na sociedade coeva. Os dados utilizados são sobretudo de membros do Santo Ofício – do século XVI ao século XVIII. Para atingir este objetivo utilizaram-se algumas descrições textuais de ocorrências da época e outras pouco estruturadas, disponíveis no repositório SPARES. A aplicação de processamento de linguagem natural (remoção de stopwords e aplicação de stemming), conjugada com a construção de duas ontologias, tornou possível classificar esses dados, permitindo consultas mais eficazes. Ao contribuir para a classificação automática de dados históricos, propõem-se metodologias que podem ser aplicadas em dados de qualquer outra área do conhecimento, especialmente as que lidam com as variáveis de tempo e espaço de forma mais intensa; Abstract: OntoSPARES: from natural language to ontologies Contributions to the automatic classification of historical data (16th-18th centuries) The interaction between the natural language processing and ontologies are tools allowing a better understanding of the data stored. This work, by combining these two areas to the elements available in a prosopographic database, has made possible to identify and classify relationships between occupations of many individuals (in general Holy Office members of the 16th-18th centuries). To achieve this goal the data used was gathered in SPARES repository, including some textual descriptions of the time occurrences. They are all few structured. The application of natural language processing (stopwords removal and stemming application), combined with the construction of two ontologies, made possible to classify those data, allowing a more effective search. By contributing to the automatic classification of historical data, this thesis proposes methodologies that can be applied to data from any other field of knowledge, specially data dealing with time and space variables.
Resumo:
As descrições de produtos turísticos na área da hotelaria, aviação, rent-a-car e pacotes de férias baseiam-se sobretudo em descrições textuais em língua natural muito heterogénea com estilos, apresentações e conteúdos muito diferentes entre si. Uma vez que o sector do turismo é bastante dinâmico e que os seus produtos e ofertas estão constantemente em alteração, o tratamento manual de normalização de toda essa informação não é possível. Neste trabalho construiu-se um protótipo que permite a classificação e extracção automática de informação a partir de descrições de produtos de turismo. Inicialmente a informação é classificada quanto ao tipo. Seguidamente são extraídos os elementos relevantes de cada tipo e gerados objectos facilmente computáveis. Sobre os objectos extraídos, o protótipo com recurso a modelos de textos e imagens gera automaticamente descrições normalizadas e orientadas a um determinado mercado. Esta versatilidade permite um novo conjunto de serviços na promoção e venda dos produtos que seria impossível implementar com a informação original. Este protótipo, embora possa ser aplicado a outros domínios, foi avaliado na normalização da descrição de hotéis. As frases descritivas do hotel são classificadas consoante o seu tipo (Local, Serviços e/ou Equipamento) através de um algoritmo de aprendizagem automática que obtém valores médios de cobertura de 96% e precisão de 72%. A cobertura foi considerada a medida mais importante uma vez que a sua maximização permite que não se percam frases para processamentos posteriores. Este trabalho permitiu também a construção e população de uma base de dados de hotéis que possibilita a pesquisa de hotéis pelas suas características. Esta funcionalidade não seria possível utilizando os conteúdos originais. ABSTRACT: The description of tourism products, like hotel, aviation, rent-a-car and holiday packages, is strongly supported on natural language expressions. Due to the extent of tourism offers and considering the high dynamics in the tourism sector, manual data management is not a reliable or scalable solution. Offer descriptions - in the order of thousands - are structured in different ways, possibly comprising different languages, complementing and/or overlap one another. This work aims at creating a prototype for the automatic classification and extraction of relevant knowledge from tourism-related text expressions. Captured knowledge is represented in a normalized/standard format to enable new services based on this information in order to promote and sale tourism products that would be impossible to implement with the raw information. Although it could be applied to other areas, this prototype was evaluated in the normalization of hotel descriptions. Hotels descriptive sentences are classified according their type (Location, Services and/or Equipment) using a machine learning algorithm. The built setting obtained an average recall of 96% and precision of 72%. Recall considered the most important measure of performance since its maximization allows that sentences were not lost in further processes. As a side product a database of hotels was built and populated with search facilities on its characteristics. This ability would not be possible using the original contents.