103 resultados para Processamento Sintático
Resumo:
Este trabalho apresenta a caracterização optoelectrónica de uma estrutura p-i-n baseada em a-Si:H e/ou a-SiC:H que funciona como sensor de cor no espectro visível. O estudo do sensor tem como objectivo a multiplexagem e desmultiplexagem de um sinal óptico (WDM Wavelengthdivision multiplexing). A caracterização do processo de WDM tem em vista a utilização de vários canais para a transmissão de sinais a curta distancia. Este modelo deverá integrar como meio de transmissão a fibra óptica, que constituirá uma importante mais valia na optimização do sistema WDM. Aliada as características do sensor cuja sensibilidade espectral na região do visível é modulada pelo sinal de tensão eléctrico aplicado. O facto destes dispositivos funcionarem como filtros de cor controlados por tensão, permite controlar a selectividade espectral no canal de transmissão, o que regula a regeneração do sinal óptico transmitido. O sistema do processamento de sinal para a desmultiplexagem foi feito para três sinais ópticos com os respectivos comprimentos de onda (Vermelho-626 nm, Verde-525 nm e Azul- 470 nm).
Resumo:
A limitada capacidade dos computadores em processar documentos de texto e consequente di culdade de extracção de informação desses documentos deve-se à dificuldade de processamento de informação não-estruturada. De modo a reduzir essa limitação é necessário aumentar a estrutura dos documentos com que os computadores trabalham. Este trabalho propõe um modelo de classificação de documentos através de um processo de refinamento sucessivo da informação. A cada iteração a informação presente no documento é melhor caracterizada através da aplicação de um classi cador apropriado. O processo de classificação recorre a informação estatística, usando o modelo de classificação de Bayes, sobre documentos ou fragmentos de documentos. O processo de classificação também recorre a técnicas para especificação de padrões de texto, usando expressões regulares para extrair informação que exibe um padrão conhecido. A informação obtida é armazenada em XML, que permite a interrogação de colecções de documentos de modo automático (recorrendo a bases de dados de suporte nativo XML). O XML também é usado para transformar a informação original noutros formatos, como por exemplo o HTML. Este formato pode ser usado para sintetizar a informação de modo melhorar a sua apresentação.
Resumo:
A introdução de capacidades RFID (Radio Frequency IDentification) em dispositivos móveis não é recente. No entanto, a indústria nunca se mostrou muito interessada nesta vertente, porque não existia uma entidade que regulasse a normalização dos diversos aspectos relacionados, nomeadamente a forma como os dados são transferidos entre os dispositivos e de que forma são guardados esses dados nas tags RFID (dispositivos compostos por circuito integrado e antena, que podem armazenar dados e transferi-los por rádio frequência). A inexistência de normas que pudessem ser adoptadas pelos fabricantes levaria a que cada um tivesse que definir o seu próprio conjunto de formas de transferência e armazenamento, o que conduziria inevitavelmente à fragmentação do mercado. Estes problemas foram resolvidos com a criação da associação industrial sem fins lucrativos NFC Forum, que é composta por diversos fabricantes com interesse na área. Desde a sua criação, esta associação tem vindo a desenvolver protocolos com o objectivo de unificar dispositivos e soluções de vários fabricantes. O termo NFC, ou Near Field Communication, foi criado para identificar esta nova geração de dispositivos móveis, que combinam as capacidades de processamento e interacção com o utilizador de um dispositivo móvel, com a comodidade associada à utilização de cartões sem contacto. Apesar de ser o elemento central nesta nova tecnologia, os dispositivos móveis não são os únicos que compõem esta nova família de tecnologias. Dela fazem também parte tags NFC, baseadas nos mesmos princípios das tags RFID, com a diferença que, nas primeiras, a forma como são organizados os dados é especificada pelas normas do NFC Forum. Uma das áreas de aplicação da tecnologia NFC é a disponibilização de conteúdos presentes em tags ou em outros dispositivos NFC, e exibição desses conteúdos no dispositivo móvel. No presente trabalho, são analisadas as normas publicadas pelo NFC Forum de forma a identificar a forma de estender a estrutura de mensagens proposta. A fase de análise incluiu também a identificação das características dos diversos dispositivos envolvidos nesta nova tecnologia (telemóveis, leitores desktop e tags). São apresentados os resultados do estudo de alguns projectos que utilizam tecnologia NFC, de forma a verificar até que ponto é interessante generalizar a plataforma a desenvolver neste projecto, bem como quais as funcionalidades mínimas desejáveis. Com base nesta análise, são definidos alguns conceitos base para a solução que envolvem tópicos como os protocolos de transporte, assim como o formato dos dados utilizado para transportar o conteúdo entre os vários componentes da solução. O resultado é uma solução híbrida que admite um vasto leque de aplicações. Verificou-se que as soluções actuais poderiam ser implementadas com recurso à solução aqui apresentada e, nos casos em que tal não acontece directamente, a solução actual pode ser estendida para o tornar possível.
Resumo:
Os principais sistemas de instant messaging, desenvolvidos pelos grandes produtores de software, têm protocolos proprietários e fechados, o que não permite que exista comunicação entre eles. Isto implica que um utilizador necessite de utilizar vários clientes de instant messaging, por forma a comunicar com os seus contactos em todas as redes. Este trabalho tem como principal objectivo o desenvolvimento de um bus de instant messaging, que seja capaz de integrar vários serviços deste tipo. O bus permitirá a um utilizador comunicar com os seus contactos, também ligados ao bus, independentemente do seu serviço, usando apenas um cliente. Foi realizado um estudo sobre os protocolos de instant messaging, tanto protocolos abertos, cujo objectivo assenta na interoperabilidade, como os serviços disponibilizados pelos grandes sistemas. Deste estudo destacou-se o protocolo aberto XMPP e o serviço de instant messaging da Yahoo, sendo estes os escolhidos para provar o objectivo do projecto. A solução proposta tem por base um servidor que implementa parcialmente o protocolo XMPP, escolhido como formato nativo do bus de instant messaging. A interoperabilidade entre serviços de instant messaging é conseguida através de Web Services (designados por módulos de tradução), sendo cada um capaz de comunicar com outro serviço de instant messaging. O servidor disponibiliza também um Web Service (Web Service Central) que expõe o bus aos módulos de tradução. As operações do Web Service Central fazem a tradução para o protocolo nativo do bus. Desta forma existe um ponto único de processamento de funcionalidades (o servidor, processando pedidos feitos ao Web Service Central, por parte dos módulos), sendo todas as mensagens redireccionadas para o módulo respectivo ao utilizador destinatário.
Resumo:
O bom desempenho dos motores de indução trifásicos, ao nível do binário, em velocidades de funcionamento abaixo da velocidade nominal, faz deles uma boa opção para realizar o controlo de velocidade nesta gama de velocidades. Actualmente, com o rápido avanço da electrónica de potência é mais acessível a implementação de dispositivos que permitam variar a velocidade dos motores de indução trifásicos, contribuindo para que estas máquinas sejam cada vez mais utilizadas em accionamentos de velocidade variável. Este trabalho tem como objectivo o estudo prático da utilização da técnica de controlo escalar por variação simultânea da tensão e frequência (V/f) no accionamento do motor de indução trifásico. Para o efeito, foi implementado um conversor de potência compacto do tipo ondulador de tensão trifásico. Os sinais de comando para o conversor, que utilizam a modulação por largura de impulso, são gerados por um microcontrolador, que para além das capacidades normais de um dispositivo desse tipo, pemite ainda o processamento digital de sinal. O microcontrolador permite ainda a monitorização da velocidade de rotação do motor e da corrente no motor. A análise do desempenho do sistema incide essencialmente sobre o controlo da velocidade de rotação do motor, tendo sido criadas várias condições de funcionamento, com diferentes inclinações das rampas de aceleração e desaceleração.
Resumo:
As comunicações electrónicas são cada vez mais o meio de eleição para negócios entre entidades e para as relações entre os cidadãos e o Estado (e-government). Esta diversidade de transacções envolve, muitas vezes, informação sensível e com possível valor legal. Neste contexto, as assinaturas electrónicas são uma importante base de confiança, fornecendo garantias de integridade e autenticação entre os intervenientes. A produção de uma assinatura digital resulta não só no valor da assinatura propriamente dita, mas também num conjunto de informação adicional acerca da mesma, como o algoritmo de assinatura, o certificado de validação ou a hora e local de produção. Num cenário heterogéneo como o descrito anteriormente, torna-se necessária uma forma flexível e interoperável de descrever esse tipo de informação. A linguagem XML é uma forma adequada de representar uma assinatura neste contexto, não só pela sua natureza estruturada, mas principalmente por ser baseada em texto e ter suporte generalizado. A recomendação XML Signature Syntax and Processing (ou apenas XML Signature) foi o primeiro passo na representação de assinaturas em XML. Nela são definidas sintaxe e regras de processamento para criar, representar e validar assinaturas digitais. As assinaturas XML podem ser aplicadas a qualquer tipo de conteúdos digitais identificáveis por um URI, tanto no mesmo documento XML que a assinatura, como noutra qualquer localização. Além disso, a mesma assinatura XML pode englobar vários recursos, mesmo de tipos diferentes (texto livre, imagens, XML, etc.). À medida que as assinaturas electrónicas foram ganhando relevância tornou-se evidente que a especificação XML Signature não era suficiente, nomeadamente por não dar garantias de validade a longo prazo nem de não repudiação. Esta situação foi agravada pelo facto da especificação não cumprir os requisitos da directiva 1999/93/EC da União Europeia, onde é estabelecido um quadro legal para as assinaturas electrónicas a nível comunitário. No seguimento desta directiva da União Europeia foi desenvolvida a especificação XML Advanced Electronic Signatures que define formatos XML e regras de processamento para assinaturas electrónicas não repudiáveis e com validade verificável durante períodos de tempo extensos, em conformidade com a directiva. Esta especificação estende a recomendação XML Signature, definindo novos elementos que contêm informação adicional acerca da assinatura e dos recursos assinados (propriedades qualificadoras). A plataforma Java inclui, desde a versão 1.6, uma API de alto nível para serviços de assinaturas digitais em XML, de acordo com a recomendação XML Signature. Contudo, não existe suporte para assinaturas avançadas. Com este projecto pretende-se desenvolver uma biblioteca Java para a criação e validação de assinaturas XAdES, preenchendo assim a lacuna existente na plataforma. A biblioteca desenvolvida disponibiliza uma interface com alto nível de abstracção, não tendo o programador que lidar directamente com a estrutura XML da assinatura nem com os detalhes do conteúdo das propriedades qualificadoras. São definidos tipos que representam os principais conceitos da assinatura, nomeadamente as propriedades qualificadoras e os recursos assinados, sendo os aspectos estruturais resolvidos internamente. Neste trabalho, a informação que compõe uma assinatura XAdES é dividia em dois grupos: o primeiro é formado por características do signatário e da assinatura, tais como a chave e as propriedades qualificadoras da assinatura. O segundo grupo é composto pelos recursos assinados e as correspondentes propriedades qualificadoras. Quando um signatário produz várias assinaturas em determinado contexto, o primeiro grupo de características será semelhante entre elas. Definiu-se o conjunto invariante de características da assinatura e do signatário como perfil de assinatura. O conceito é estendido à verificação de assinaturas englobando, neste caso, a informação a usar nesse processo, como por exemplo os certificados raiz em que o verificador confia. Numa outra perspectiva, um perfil constitui uma configuração do serviço de assinatura correspondente. O desenho e implementação da biblioteca estão também baseados no conceito de fornecedor de serviços. Um fornecedor de serviços é uma entidade que disponibiliza determinada informação ou serviço necessários à produção e verificação de assinaturas, nomeadamente: selecção de chave/certificado de assinatura, validação de certificados, interacção com servidores de time-stamp e geração de XML. Em vez de depender directamente da informação em causa, um perfil — e, consequentemente, a operação correspondente — é configurado com fornecedores de serviços que são invocados quando necessário. Para cada tipo de fornecedor de serviços é definida um interface, podendo as correspondentes implementações ser configuradas de forma independente. A biblioteca inclui implementações de todos os fornecedores de serviços, sendo algumas delas usadas for omissão na produção e verificação de assinaturas. Uma vez que o foco do projecto é a especificação XAdES, o processamento e estrutura relativos ao formato básico são delegados internamente na biblioteca Apache XML Security, que disponibiliza uma implementação da recomendação XML Signature. Para validar o funcionamento da biblioteca, nomeadamente em termos de interoperabilidade, procede-se, entre outros, à verificação de um conjunto de assinaturas produzidas por Estados Membros da União Europeia, bem como por outra implementação da especificação XAdES.
Resumo:
Este trabalho procura evidenciar a importância da escolha do tipo de elementos finitos e correspondente discretização a utilizar na análise do comportamento estrutural de barragens abóbada. Descreve-se a metodologia de cálculo utilizada na análise da resposta de barragens em regime elástico linear sob a acção do peso próprio e da pressão hidrostática com base em modelos numéricos de elementos finitos 3D. Apresentam-se sumariamente os fundamentos do método dos elementos finitos referindo-se, em particular, os elementos finitos utilizados: elemento isoparamétrico tipo cubo com 20 pontos nodais e elemento subparamétrico tipo cubo com 8 pontos nodais. Apresentam-se os programas de análise de barragens utilizados no LNEC nas fases de pré-processamento (geração de malhas de EF3D), processamento e pós-processamento, bem como o programa comercial de cálculo automático SAP2000. Analisa-se por fim o comportamento de duas barragens abóbada cuja resposta para a acção do peso e da pressão hidrostática apresenta algumas diferenças que se analisam em pormenor, nomeadamente em termos de tensões e deslocamentos utilizando vários modelos numéricos 3D (DTIN12 [LNEC] e SAP2000) com diferentes discretizações em que se utilizam os dois tipos de EF atrás referidos.
Resumo:
Este trabalho teve como objectivo o desenvolvimento em computador de uma prótese transfemural para amputados acima do joelho. A prótese desenvolvida replica a geometria conhecida do movimento de rotação no joelho, possui também um cilindro de amortecimento hidráulico, de modo a proporcionar um movimento mais próximo do fisiológico natural. Deste modo garante-se mais estabilidade nas fases de apoio, e maior segurança e conforto aos amputados durante a sua marcha no dia-a-dia. Para desenvolver a prótese realizou-se a modelação computacional da prótese transfemural no SolidWorks 2008. Para obtenção do movimento humano utilizou-se valores de deslocamentos lineares e angulares dos membros inferiores obtidos no Laboratório da biomecânica “MovLab” da Universidade Lusófona de Humanidades e Tecnologias. Para captura do movimento utilizou-se o sistema Vicon de captura de imagem e processamento da cinemática do movimento. Foram registados os valores da força de contacto na passada, através do uso de uma plataforma de forças. Com base no modelo desenvolvido foram realizadas várias simulações de dinâmica inversa, sendo criado dois modelos biomecânico correspondentes a uma pessoa com e sem amputação. Utilizando o movimento capturado por vídeo de uma pessoa a Andar Normal, a Correr e a Saltar, comparou-se os resultados obtidos nas simulações com os valores medidos em laboratório. Para as diferentes simulações os valores obtidos de picos máximos das forças tiveram magnitudes bastantes próximas dos valores obtidos em laboratório, o que indica que a metodologia desenvolvida durante este trabalho representa um bom modelo para estudo e desenvolvimento de próteses.
Resumo:
A congelação alimentar é um dos mais importantes processos de conservação de géneros alimentícios a nível mundial. Este estudo analisa de forma comparada os processos de congelação clássica e criogénica de produtos alimentares em geral, e em particular do camarão. Focaliza as mudanças ocorridas durante o processo de congelação bem como a importância e consequência dos cristais de gelo formados durante o processo. É feita uma abordagem à velocidade da frente de frio e ao efeito que o ciclo congelação-descongelação trás à qualidade final do produto. Os dados colectados permitem evidenciar uma clara vantagem no uso da congelação criogénica no que respeita à qualidade final do produto uma vez que este apresenta uma clara melhoria das suas propriedades globais em especial na oleosidade e sabor. Por outro lado, demonstra-se que a congelação clássica permite uma maior contenção de custos associados à congelação uma vez que possibilitou uma poupança de dois milhões de Euros após um funcionamento ao longo de 11 anos, segundo os pressupostos estabelecidos. Constatou-se que a crio-congelação deverá ser aplicada no processamento de produtos de elevado valor comercial, ou em locais onde as tarifas eléctricas tenham um valor elevado, ou ainda em produtos que, devido à sua constituição, assim o exija. Considerando estas conclusões principais, o estudo inviabiliza, neste momento, o uso de azoto líquido na congelação total de camarão dentro do território de Moçambique para comércio em Portugal.
Resumo:
No presente trabalho é proposta uma arquitectura, assim como a concepção e implementação de um PoC, de um sistema de recomendações flexível que permite integrar novos modelos de negócio relacionados ao longo do tempo. O PoC implementado é vocacionado para a problemática da televisão interactiva e, mais concretamente, para o excesso de informação com que os utilizadores se deparam diariamente. Este sistema, denominado de iTV PREFARC, permite processar, de forma massiva, a informação de EPG, integrando-a para posterior processamento no motor de recomendações. Disponibiliza também funcionalidades para classificar os itens presentes no sistema (programas televisivos, vídeos, etc.), e obter as recomendações calculadas pelo sistema. A interacção com os consumidores do sistema é sempre feita através de serviços Web. São também abordados cenários de aplicação que permitem atestar a utilidade do sistema, demonstrando simultaneamente como interagem os diferentes componentes.
Resumo:
A robótica tem evoluído no sentido de criar robots e componentes cada vez mais evoluídos a preços acessíveis. Este facto permitiu que o desenvolvimento de aplicações no âmbito da robótica se tenha massificado e que a utilidade dos robots se tenha alargado a diferentes áreas de aplicação. Apesar da evolução dos robots e dos componentes para os mesmos, subsistem limitações que restringem a utilização de robots a certas aplicações, nomeadamente quando a capacidade de processamento e de memória não é suficiente para executar as aplicações. A forma para ultrapassar estas limitações tem residido essencialmente em duas abordagens: limitar as aplicações desenvolvidas à medida dos recursos disponíveis no hardware; ou estender as capacidades do robot usando recursos externos ao robot, quer por extensão do hardware do robot, quer por controlo remoto dos componentes do robot. Atendendo a esta problemática, foi desenvolvida uma plataforma que estende as capacidades dos robots segundo uma abordagem que usa o controlo remoto do robot, para capacitar as aplicações de controlo desenvolvidas de mais recursos, nomeadamente em termos de capacidade de processamento e memória. A plataforma desenvolvida disponibiliza ainda um simulador que virtualiza um campo de simulação e um robot, e simula a forma como estes interagem. O simulador é integrado na plataforma de forma semelhante aos adaptadores para robots, para que as aplicações desenvolvidas possam ser usadas quer em robots reais como no simulador.
Resumo:
A necessidade de poder computacional é crescente nas diversas áreas de actuação humana, tanto na indústria, como em ambientes académicos. Grid Computing permite a ligação de recursos computacionais dispersos de maneira a permitir a sua utilização mais eficaz, fornecendo aos utilizadores um acesso simplificado ao poder computacional de diversos sistemas. Os primeiros projectos de Grid Computing implicavam a ligação de máquinas paralelas ou aglomerados de alto desempenho e alto custo, disponíveis apenas em algumas instituições. Contrastando com o elevado custo dos super-computadores, os computadores pessoais e a Internet sofreram uma evolução significativa nos últimos anos. O uso de computadores dispersos em uma WAN pode representar um ambiente muito interessante para processamento de alto desempenho. Os sistemas em Grid fornecem a possibilidade de se utilizar um conjunto de computadores pessoais de modo a fornecer uma computação que utiliza recursos que de outra maneira estariam omissos. Este trabalho consiste no estudo de Grid Computing a nível de conceito e de arquitectura e numa análise ao seu estado actual hoje em dia. Como complemento foi desenvolvido um componente que permite o desenvolvimento de serviços para Grids (Grid Services) mais eficaz do que o modelo de suporte a serviços actualmente utilizado. Este componente é disponibilizado sob a forma um plug-in para a plataforma Eclipse IDE.
Resumo:
Por razões de segurança, tem vindo a aumentar a utilização de sistemas de videovigilância em espaços públicos. Face a acontecimentos recentes, designadamente a ocorrência de explosões, é importante detectar bagagem abandonada porque poderá ser perigosa. Surge neste contexto a motivação para este trabalho, cujo objectivo é a detecção automática de objectos abandonados num lugar de embarque e desembarque de passageiros. O sistema desenvolvido processa as imagens obtidas pelas câmaras de videovigilância. Para cada câmara, cada imagem é comparada com a respectiva imagem de fundo, determinada inicialmente, para detectar alterações no local. Após processamento para remover efeitos de sombra e pontos espúrios, a representação binária das alterações é projectada no plano do chão e fundida com as outras projecções. Através da análise da fusão das projecções, identificam-se as blobs, designação da representação de passageiros e bagagem neste domínio. A detecção de bagagem abandonada baseia-se na ideia de que isso corresponde à divisão de uma blob em duas, permanecendo uma no local onde ocorreu a bifurcação e tendo havido afastamento da outra. Usando os dados de referência do encontro Performance Evaluation of Tracking and Surveillance, realizado em 2006, discute-se o desempenho do protótipo implementado e a sua parametrização e apresentam-se aspectos de refinamento e implementação da heurística de detecção. Analisada a utilização de imagens de um sistema de videovigilância instalado com outra finalidade, constata-se a forte dependência em relação ao número e disposição das câmaras, que neste caso, se revela desadequada.
Resumo:
O trabalho desenvolvido teve como objectivo principal a preparação de matrizes porosas de quitosano reticuladas com materiais biodegradáveis e biocompatíveis para uso em aplicações biomédicas. As matrizes foram caracterizadas a nível estrutural (análise por IV e RMN), a nível físico (análise por SEM, ensaios de biodegrabilidade e inchamento) e também a nível funcional (análise da capacidade de libertação controlada de um fármaco). Os agentes reticulantes das matrizes foram cuidadosamente seleccionados usando como critério principal a ausência de toxidade (biocompatibilidade). Foram seleccionados para este estudo diferentes copolímeros de poli(2-etil-2-oxazolina) e glicidil metacrilato, o ácido bórico, o ácido malónico e o líquido iónico 1-(2-hidroxietil)-3-metil-imidazol tetrafluoroborato. Os agentes reticulantes poliméricos foram sintetizados usando uma tecnologia limpa (polimerização viva em dióxido de carbono supercrítico através de uma mecanismo de abertura de anel por via catiónica). A análise do perfil de biodegrabilidade das matrizes de quitosano reticuladas revelou que se degradam facilmente em meio ligeiramente ácido (pH5.0) o que levou à sua exclusão para estudos de expansão celular. As matrizes estudadas revelaram um elevado grau de inchamento cujo potencial para libertação controlada de fármacos foi explorado para a libertação de dexametasona, um glicocorticóide sintético adequado a administração por via transdérmica. As matrizes de quitosano reticuladas e impregnadas com dexametasona apresentam um perfil de libertação controlada e contínua ao longo de vinte e sete horas.
Resumo:
Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.