921 resultados para Jabuticaba - Processamento
Resumo:
Tese de doutoramento, Psicologia (Psicologia Clínica), Universidade de Lisboa, Faculdade de Psicologia, 2014
Resumo:
Tese de mestrado. Biologia (Biologia Molecular e Genética). Universidade de Lisboa, Faculdade de Ciências,2014
Resumo:
Tese de doutoramento, Informática (Engenharia Informática), Universidade de Lisboa, Faculdade de Ciências, 2015
Resumo:
Dissertação de mestrado, Ciência Cognitiva, Universidade de Lisboa, Faculdade de Psicologia, Faculdade de Medicina, Faculdade de Ciências, Faculdade de Letras, 2014
Resumo:
Tese de mestrado integrado em Engenharia Biomédica e Biofísica , apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2014
Resumo:
Tese de mestrado, Psicologia (Secção de Cognição Social Aplicada), Universidade de Lisboa, Faculdade de Psicologia, 2014
Resumo:
Tese de doutoramento, Informática (Ciência da Computação), Universidade de Lisboa, Faculdade de Ciências, 2015
Resumo:
2016
Resumo:
A montagem de circuitos eletrónicos é um processo extremamente complexo, e como tal muito difícil de controlar. Ao longo do processo produtivo, é colocada solda no PCB (printed circuit board), seguidamente são colocados os componentes eletrónicos que serão depois soldados através de um sistema de convecção, sendo por fim inspecionados todos os componentes, com o intuito de detetar eventuais falhas no circuito. Esta inspeção é efetuada por uma máquina designada por AOI (automatic optical inspection), que através da captura de várias imagens do PCB, analisa cada uma, utilizando algoritmos de processamento de imagem como forma de verificar a presença, colocação e soldadura de todos os componentes. Um dos grandes problemas na classificação dos defeitos relaciona-se com a quantidade de defeitos mal classificados que passam para os processos seguintes, por análise errada por parte dos operadores. Assim, apenas com uma formação adequada, realizada continuamente, é possível garantir uma menor taxa de falhas por parte dos operadores e consequentemente um aumento na qualidade dos produtos. Através da implementação da metodologia Gage R&R para atributos, que é parte integrante da estratégia “six sigma” foi possível analisar a aptidão dos operadores, com base na repetição aleatória de várias imagens. Foi desenvolvido um software que implementa esta metodologia na formação dos operadores das máquinas AOI, de forma a verificar a sua aptidão, tendo como objetivo a melhoria do seu desempenho futuro, através da medição e quantificação das dificuldades de cada pessoa. Com esta nova sistemática foi mais fácil entender a necessidade de formação de cada operador, pois com a constante evolução dos componentes eletrónicos e com o surgimento de novos componentes, estão implícitas novas dificuldades para os operadores neste tipo de tarefa. Foi também possível reduzir o número de defeitos mal classificados de forma significativa, através da aposta na formação com o auxílio do software desenvolvido.
Resumo:
Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação de Doutora Maria Helena da Costa Alves Guimarães Ustimenko e Doutora Maria Manuela Ribeiro Veloso.
Resumo:
Uma das abordagens mais importantes da terminologia é a desenvolvida pelas disciplinas técnico-científicas, para as quais representa a reflexão formal da sua organização conceptual e, como tal, um meio essencial de expressão e comunicação. De forma a desenvolver as diferentes tarefas a que se propõe, a terminologia tem como principal objecto de estudo os textos de línguas de especialidade, que são o primeiro veículo, por excelência, de expressão e comunicação das disciplinas suprareferidas. Estes textos reflectem, normalmente, um tipo de comunicação especializada, cujo objectivo é o da transferência de conhecimentos, realizada com recurso a um sistema de representação verbal. No entanto, a abertura e a extensão do texto escrito a outros meios de representação, sobretudo nas áreas técnicas, está a conduzir a uma nova tendência no campo da terminologia e da pesquisa das línguas de especialidade, que tem vindo a reforçar a importância da utilização de formas não-verbais para representar o conhecimento. A tendência para o aumento do uso destas formas de representação, normalmente em complemento ou conjugação com a informação verbal, aponta para um novo paradigma em que a linguagem, como representação do pensamento, parece estar em busca de uma nova abordagem que venha transformar a maneira de produzir, organizar e transmitir conhecimentos, recorrendo às novas tecnologias, cada vez mais à disposição da chamada sociedade do conhecimento. A nossa percepção desta realidade ganhou maior consistência ao longo do desenvolvimento de um projecto terminográfico de elaboração do Dicionário Multilingue de População e Desenvolvimento, no qual o recurso a sistemas de representação nãoverbais (organigramas e outro tipo de representações visuais), utilizados como forma de percepção e organização dos conceitos e dos domínios a incluir no dicionário, se tornou um meio importante de aquisição, discussão, estruturação e transmissão do conhecimento. Daí a decisão de abordarmos, ainda que de forma breve, a análise de duas problemáticas sugeridas pelo desenrolar daquele projecto. A primeira recai sobre o estabelecimento de relações semânticas entre os conceitos, sobre as implicações deste processo na estruturação conceptual e sobre a sua importância no processamento da informação terminológica. A segunda incide na análise do recurso aos meios de representação não-verbais e do papel que desempenham e que podem vir a desempenhar no desenrolar do processo terminológico, enquanto elementos de estruturação de um sistema conceptual, de estruturação de um projecto terminológico e de comunicação especializada. Estas duas problemáticas estão directamente interrelacionadas e devem ser analisadas em conjunto, sobretudo quando se trata de formalizar a informação e armazená-la numa base de dados terminológica, de forma a poder ser processada (semi)automaticamente.
Resumo:
Trabalho Final de Mestrado para a obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Automação e Electrónica Industrial
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica na Área de Manutenção e Produção