917 resultados para Localização automática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos, o fácil acesso em termos de custos, ferramentas de produção, edição e distribuição de conteúdos audiovisuais, contribuíram para o aumento exponencial da produção diária deste tipo de conteúdos. Neste paradigma de superabundância de conteúdos multimédia existe uma grande percentagem de sequências de vídeo que contém material explícito, sendo necessário existir um controlo mais rigoroso, de modo a não ser facilmente acessível a menores. O conceito de conteúdo explícito pode ser caraterizado de diferentes formas, tendo o trabalho descrito neste documento incidido sobre a deteção automática de nudez feminina presente em sequências de vídeo. Este processo de deteção e classificação automática de material para adultos pode constituir uma ferramenta importante na gestão de um canal de televisão. Diariamente podem ser recebidas centenas de horas de material sendo impraticável a implementação de um processo manual de controlo de qualidade. A solução criada no contexto desta dissertação foi estudada e desenvolvida em torno de um produto especifico ligado à área do broadcasting. Este produto é o mxfSPEEDRAIL F1000, sendo este uma solução da empresa MOG Technologies. O objetivo principal do projeto é o desenvolvimento de uma biblioteca em C++, acessível durante o processo de ingest, que permita, através de uma análise baseada em funcionalidades de visão computacional, detetar e sinalizar na metadata do sinal, quais as frames que potencialmente apresentam conteúdo explícito. A solução desenvolvida utiliza um conjunto de técnicas do estado da arte adaptadas ao problema a tratar. Nestas incluem-se algoritmos para realizar a segmentação de pele e deteção de objetos em imagens. Por fim é efetuada uma análise critica à solução desenvolvida no âmbito desta dissertação de modo a que em futuros desenvolvimentos esta seja melhorada a nível do consumo de recursos durante a análise e a nível da sua taxa de sucesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A globalização, nas suas diversas dimensões, está a tornar o mundo cada vez mais pequeno, alterando as nossas vidas e transformando a forma como as empresas fazem negócios. Estamos cada vez mais expostos aos traços e práticas das outras culturas à medida que a tecnologia diminui os custos da comunicação global e das viagens. A globalização está a obrigar as empresas a serem mais competitivas ao mesmo tempo que os países reduzem as barreiras ao comércio internacional e ao investimento estrangeiro. A competitividade das empresas obriga-as a serem mais eficientes e eficazes, logo a pensarem os seus processos internos de forma a procurarem a sua otimização e melhorarem a sua produtividade, com a notória consequência na satisfação do cliente. Para a satisfação do cliente é necessário que as operações dentro do sistema de distribuição, nomeadamente as realizadas no armazém, sejam otimizadas. Esta otimização é atingida quando as encomendas dos clientes estiverem completas e prontas a serem despachadas em tempo útil e todos os processos necessários para o efeito tenham ocorrido no menor espaço de tempo possível e com o mínimo de recursos. O planeamento das operações no armazém tem de determinar o tempo e a ordem das operações bem como os recursos necessários de forma a não acontecerem congestionamentos. A Caetano Parts, uma empresa de revenda de peças de substituição automóvel, identificou um congestionamento na localização de peças que chegavam pela primeira vez ao seu armazém, o que suscitou a necessidade do desenvolvimento de uma ferramenta que permitisse proceder à localização destas peças de uma forma mais expedita, permitindo ganhos significativos de tempo na arrumação das peças e consequentemente no tempo gasto na sua procura/separação e posterior envio para os clientes. A ferramenta desenvolvida consiste num programa em Visual Basic for Applications (VBA) cuja conceção, desenvolvimento e descrição das funcionalidades serão abordados ao longo do trabalho. Os testes realizados ao longo do desenvolvimento validaram o correto funcionamento da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação da Doutora Celsa Maria de Carvalho Machado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação do Doutor Manuel Moreira da Silva Esta versão não contém as críticas e sugestões dos elementos do júri

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente os sistemas Automatic Vehicle Location (AVL) fazem parte do dia-a-dia de muitas empresas. Esta tecnologia tem evoluído significativamente ao longo da última década, tornando-se mais acessível e fácil de utilizar. Este trabalho consiste no desenvolvimento de um sistema de localização de veículos para smartphone Android. Para tal, foram desenvolvidas duas aplicações: uma aplicação de localização para smarphone Android e uma aplicação WEB de monitorização. A aplicação de localização permite a recolha de dados de localização GPS e estabelecer uma rede piconet Bluetooth, admitindo assim a comunicação simultânea com a unidade de controlo de um veículo (ECU) através de um adaptador OBDII/Bluetooth e com até sete sensores/dispositivos Bluetooth que podem ser instalados no veículo. Os dados recolhidos pela aplicação Android são enviados periodicamente (intervalo de tempo definido pelo utilizador) para um servidor Web No que diz respeito à aplicação WEB desenvolvida, esta permite a um gestor de frota efetuar a monitorização dos veículos em circulação/registados no sistema, podendo visualizar a posição geográfica dos mesmos num mapa interativo (Google Maps), dados do veículo (OBDII) e sensores/dispositivos Bluetooth para cada localização enviada pela aplicação Android. O sistema desenvolvido funciona tal como esperado. A aplicação Android foi testada inúmeras vezes e a diferentes velocidades do veículo, podendo inclusive funcionar em dois modos distintos: data logger e data pusher, consoante o estado da ligação à Internet do smartphone. Os sistemas de localização baseados em smartphone possuem vantagens relativamente aos sistemas convencionais, nomeadamente a portabilidade, facilidade de instalação e baixo custo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Redes Sem Fios Enterradas (Wireless Underground Networks - WUN) são formadas por nós que comunicam entre si através de ligações sem fios e têm como meio de propagação o solo. Os sistemas de localização mais utilizados atualmente têm desvantagens ao nível da precisão e o custo. Nesta tese é proposta uma solução de localização de precisão que recorre à utilização de redes sem fios enterradas e um algoritmo de posicionamento baseados em Wi-Fi. O objetivo é estimar a localização de objetos, utilizando dispositivos Wi-Fi de baixo custo. Os resultados experimentais obtidos demonstram que o erro de localização é inferior a 0,40 m, e que esta solução é viável para, por exemplo, localizar jogadores num campo de futebol ou localizar um objeto num campo agrícola.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tipicamente as redes elétricas de distribuição apresentam uma topologia parcialmente malhada e são exploradas radialmente. A topologia radial é obtida através da abertura das malhas nos locais que otimizam o ponto de operação da rede, através da instalação de aparelhos de corte que operam normalmente abertos. Para além de manterem a topologia radial, estes equipamentos possibilitam também a transferência de cargas entre saídas, aquando da ocorrência de defeitos. As saídas radiais são ainda dotadas de aparelhos de corte que operam normalmente fechados, estes têm como objetivo maximizar a fiabilidade e isolar defeitos, minimizando a área afetada pelos mesmos. Assim, na presente dissertação são desenvolvidos dois algoritmos determinísticos para a localização ótima de aparelhos de corte normalmente abertos e fechados, minimizando a potência ativa de perdas e o custo da energia não distribuída. O algoritmo de localização de aparelhos de corte normalmente abertos visa encontrar a topologia radial ótima que minimiza a potência ativa de perdas. O método é desenvolvido em ambiente Matlab – Tomlab, e é formulado como um problema de programação quadrática inteira mista. A topologia radial ótima é garantida através do cálculo de um trânsito de potências ótimo baseado no modelo DC. A função objetivo é dada pelas perdas por efeito de Joule. Por outro lado o problema é restringido pela primeira lei de Kirchhoff, limites de geração das subestações, limites térmicos dos condutores, trânsito de potência unidirecional e pela condição de radialidade. Os aparelhos de corte normalmente fechados são localizados ao longo das saídas radiais obtidas pelo anterior algoritmo, e permite minimizar o custo da energia não distribuída. No limite é possível localizar um aparelho de corte normalmente fechado em todas as linhas de uma rede de distribuição, sendo esta a solução que minimiza a energia não distribuída. No entanto, tendo em conta que a cada aparelho de corte está associado um investimento, é fundamental encontrar um equilíbrio entre a melhoria de fiabilidade e o investimento. Desta forma, o algoritmo desenvolvido avalia os benefícios obtidos com a instalação de aparelhos de corte normalmente fechados, e retorna o número e a localização dos mesmo que minimiza o custo da energia não distribuída. Os métodos apresentados são testados em duas redes de distribuição reais, exploradas com um nível de tensão de 15 kV e 30 kV, respetivamente. A primeira rede é localizada no distrito do Porto e é caraterizada por uma topologia mista e urbana. A segunda rede é localizada no distrito de Bragança e é caracterizada por uma topologia maioritariamente aérea e rural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tese apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Linguística, na Especialidade de Lexicologia, Lexicografia e Terminologia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias en Ingeniería de Sistemas) UANL, 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El resumen es copia del publicado con el artículo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde la primera utilización del término empatía en Psicología, a principios del siglo XX, su uso se ha extendido por las distintas ramas de esta ciencia, lo que ha dado lugar a la proliferación de teorías y categorías concebidas para explicar su funcionamiento o describir sus componentes. En el presente artículo se revisan algunas discusiones sobre los alcances y los límites del concepto de empatía y se intenta aclarar las particularidades y las relaciones entre términos que conviven en la investigación sobre el tema: contagio emocional, empatía emocional, toma de perspectiva, teoría de la mente y mentalización. Se propone además una integración de este campo conceptual en un esquema amplio, al buscar dar cuenta de la complejidad del constructo de Empatía.