23 resultados para blocos incompletos
em Instituto Politécnico do Porto, Portugal
Resumo:
Mestrado em Engenharia Geotécnica e Geoambiente
Resumo:
O surgimento de novos modelos de negócio, nomeadamente o estabelecimento de parcerias entre organizações, a possibilidade de as empresas poderem adicionar informação existente na web, em especial na web semânjtica, à informação de que dispõem, levou ao acentuar de alguns problemas já existentes nas bases de dados, nomeadamente no que respeita a problemas de qualidade de dados. Dados de má qualidade podem levar à perda de competitividade das organizações que os detêm, podendo inclusive levar ao seu desaparecimento, uma vez que muitas das suas tomadas de decisão são baseadas nestes dados. Por este motivo torna-se relevante a limpeza de dados que é um processo automático de detecção e eventual correção dos problemas de qualidade de dados, tais como registos duplicados, dados incompletos, e/ou inconsistentes. As abordagens atualmente existentes para solucionar estes problemas, encontram-se muito ligadas ao esquema das bases de dados e a domínios específicos. Para que as operações de limpeza de dados possam ser utilizadas em diferentes repositórios, torna-se necessário o entendimento, por parte dos sistemas computacionais, desses mesmos dados, ou seja, é necessária uma semântica associada. A solução apresentada passa pelo uso de ontologias, como forma de representação das operações de limpeza, para solucionar os problemas de heterogeneidade semântica, quer ao nível dos dados existentes nos diversos repositórios, quer ao nível da especificação das operações de limpeza. Estando as operações de limpeza definidas ao nível conceptual e existindo mapeamentos entre as ontologias de domínio e a ontologia associada a uma qualquer base de dados, aquelas poderão ser instanciadas e propostas ao utilizador para serem executadas sobre essa base de dados, permitindo assim a sua interoperabilidade.
Resumo:
Hoje em dia algumas das principais preocupações que se tem na exploração a céu aberto, são a diminuição de custos e a máxima rentabilidade dos equipamentos. São dois aspectos que estão interligados uma vez que a rentabilização dos equipamentos tem como resultado directo a diminuição dos custos de todas as operações inerentes à exploração a céu aberto e, consequentemente, a diminuição dos custos finais de produção. É por essa lógica de pensamento que se procurou perceber e compreender o funcionamento e a rentabilidade dos equipamentos em função dos diferentes estados de fracturação do maciço rochoso. Este estudo foi realizado numa pedreira a norte de Portugal e complementa outros estudos já realizados, com o objectivo de definir características do diagrama de fogo que assegurem a maior rentabilidade da referida exploração. O estudo baseia-se em determinar os rendimentos da pá carregadora calculando os tempos de ciclo, isto é, o tempo que a pá demorou a carregar, a movimentar e a descarregar o material desmontado dos vários rebentamentos. Calculou-se o rendimento do martelo demolidor na fragmentação de grandes blocos, que não entrariam directamente no britador primário, o qual também foi alvo de estudo, nomeadamente, no que diz respeito aos tempos de encravamento e de britagem, onde se tentou correlacionar esses tempos com os vários desmontes e estimou-se o consumo de energia do britador primário utilizando a equação de Bond. Por fim, realizou-se um estudo comparativo do consumo energético entre as várias fases da exploração a céu aberto. Foram realizados levantamentos geológico-geotécnicos de superfícies de descontinuidades recorrendo à técnica de amostragem linear nas superfícies do maciço rochoso para perceber o tipo de fragmentação e orientação do mesmo.
Resumo:
Este trabalho visa apresentar um enquadramento da realidade económica e industrial do sector transformador de granitos ornamentais em Portugal e fazer uma análise do processo de serragem, com engenhos multi-lâminas e granalha de aço, na medida em que este é o método de seccionamento de blocos de granito mais utilizado pelas grandes indústrias do sector. Tendo em conta a importância económica desta operação produtiva na indústria em causa, foi definido como fito deste projecto a análise estatística dos custos de produção; a definição de fórmulas de cálculo que permitam prever o custo médio de serragem; e o estudo de soluções economicamente viáveis e ambientalmente sustentáveis para o problema das lamas resultantes do expurgo dos engenhos. Para a persecução deste projecto foi realizada uma recolha de dados implementando rotinas de controlo e registo dos mesmos, em quadros de produção normalizados e de fácil preenchimento, pelos operadores destes equipamentos. Esta recolha de dados permitiu isolar, quantificar e formular os factores de rentabilização do processo de serragem selecionando, dentro da amostra de estudo obtida, um conjunto de serragens com características similares e com valores próximos dos valores da média estatística. Apartir dos dados destas serragens foram geradas curvas de tendência polinomial com as quais se analisaram as variações provocadas no custo médio de serragem, pelas variações do factor em estudo. A formulação dos factores de rentabilização e os dados estatísticos obtidos permitiram depois o desenvolvimento de fórmulas de cálculo do custo médio de serragem que establecem o custo de produção diferenciado em função das espessuras com, ou sem, a incorporação dos factores de rentabilização. Como consequência do projecto realizado obteve-se um conjunto de conclusões util, para o sector industrial em causa, que evidencia a importancia da Ocupação dos engenhos e rentabilização de um espaço confinado, da Resistência oferecida à serragem pelos granitos, e da Diferença de altura entre os blocos de uma mesma carga, nos custos de transformação.
Resumo:
The recent advances in embedded systems world, lead us to more complex systems with application specific blocks (IP cores), the System on Chip (SoC) devices. A good example of these complex devices can be encountered in the cell phones that can have image processing cores, communication cores, memory card cores, and others. The need of augmenting systems’ processing performance with lowest power, leads to a concept of Multiprocessor System on Chip (MSoC) in which the execution of multiple tasks can be distributed along various processors. This thesis intends to address the creation of a synthesizable multiprocessing system to be placed in a FPGA device, providing a good flexibility to tailor the system to a specific application. To deliver a multiprocessing system, will be used the synthesisable 32-bit SPARC V8 compliant, LEON3 processor.
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
Um dos factores mais determinantes para o sucesso de uma organização é a qualidade das decisões tomadas. Para que as decisões tomadas sejam melhores e potenciem a competitividade das organizações, sistemas como os Sistemas de Apoio à Tomada de Decisão em Grupo (SADG) têm sido fortemente desenvolvidos e estudados nas últimas décadas. Cada vez mais, estes sistemas são populados com um maior número de dados, com o objectivo de serem mais assertivos. Considera-se que com determinados dados seja possível que o sistema possa aferir a satisfação dos participantes com as decisões tomadas, tendencialmente de forma automática. Hoje em dia, as análises de satisfação com as decisões não contemplam na sua maioria factores imprescindíveis, como os emocionais e de personalidade, sendo que os modelos existentes tendem a ser incompletos. Nesta dissertação propõe-se uma metodologia que permite a um SADG aferir a satisfação do participante com a decisão, considerando aspectos como a personalidade, as emoções e as expectativas. A metodologia desenvolvida foi implementada num SADG (ArgEmotionsAgents) com uma arquitectura multiagente, composto por agentes que reflectem participantes reais e que estão modelados com a sua personalidade. De acordo com a sua personalidade, esses agentes trocam argumentos persuasivos de forma a obterem uma decisão consensual. No processo de troca de argumentos os agentes geram emoções que afectam o seu humor. A implementação da metodologia no ArgEmotionsAgents permite que, no final de uma reunião, seja possível aferir a satisfação dos agentes participantes com a decisão final e com o processo que levou à tomada de decisão. De forma a validar a metodologia proposta bem como a implementação que foi desenvolvida, foram realizadas quatro experiências em diferentes cenários. Numa primeira experiência, foi aferida a satisfação dos quatro agentes participantes. Nas experiências seguintes, um dos agentes participantes foi usado como referência e foram alteradas configurações (expectativas, personalidade e reavaliação das alternativas) para perceber de que forma os vários factores afectam a satisfação. Com o estudo concluiu-se que todos os factores considerados no modelo afectam a satisfação. A forma como a satisfação é afectada por cada um dos factores vai ao encontro da lógica apresentada no estado da arte. Os resultados de satisfação aferidos pelo modelo são congruentes.
Resumo:
Este trabalho de pesquisa e desenvolvimento tem como fundamento principal o Conceito de Controlo por Lógica Difusa. Utilizando as ferramentas do software Matlab, foi possível desenvolver um controlador com base na inferência difusa que permitisse controlar qualquer tipo de sistema físico real, independentemente das suas características. O Controlo Lógico Difuso, do inglês “Fuzzy Control”, é um tipo de controlo muito particular, pois permite o uso simultâneo de dados numéricos com variáveis linguísticas que tem por base o conhecimento heurístico dos sistemas a controlar. Desta forma, consegue-se quantificar, por exemplo, se um copo está “meio cheio” ou “meio vazio”, se uma pessoa é “alta” ou “baixa”, se está “frio” ou “muito frio”. O controlo PID é, sem dúvida alguma, o controlador mais amplamente utilizado no controlo de sistemas. Devido à sua simplicidade de construção, aos reduzidos custos de aplicação e manutenção e aos resultados que se obtêm, este controlador torna-se a primeira opção quando se pretende implementar uma malha de controlo num determinado sistema. Caracterizado por três parâmetros de ajuste, a saber componente proporcional, integral e derivativa, as três em conjunto permitem uma sintonia eficaz de qualquer tipo de sistema. De forma a automatizar o processo de sintonia de controladores e, aproveitando o que melhor oferece o Controlo Difuso e o Controlo PID, agrupou-se os dois controladores, onde em conjunto, como poderemos constatar mais adiante, foram obtidos resultados que vão de encontro com os objectivos traçados. Com o auxílio do simulink do Matlab, foi desenvolvido o diagrama de blocos do sistema de controlo, onde o controlador difuso tem a tarefa de supervisionar a resposta do controlador PID, corrigindo-a ao longo do tempo de simulação. O controlador desenvolvido é denominado por Controlador FuzzyPID. Durante o desenvolvimento prático do trabalho, foi simulada a resposta de diversos sistemas à entrada em degrau unitário. Os sistemas estudados são na sua maioria sistemas físicos reais, que representam sistemas mecânicos, térmicos, pneumáticos, eléctricos, etc., e que podem ser facilmente descritos por funções de transferência de primeira, segunda e de ordem superior, com e sem atraso.
Resumo:
Sabia que o japonês escrito usa uma combinação de três escritas: ideogramas chineses (kanji) e dois sistemas alfabéticos baseados em sílabas (hiragana e katakana)? Sabia que no Japão os bairros estão divididos em quarteirões formando blocos numerados em que o primeiro número indica a prefeitura, o segundo o quarteirão principal, o terceiro um bloco de edifícios mais pequeno e o quarto o número do edifício? Sabia que a Ginko biloba, uma planta muito utilizada na medicina alternativa, não só no oriente, mas também, e cada vez mais, no ocidente, pelas suas propriedades regenerativas, despertou o interesse dos investigadores após a 2ª Guerra Mundial por ter sobrevivido às radiações em Hiroxima? Sabia ainda que no Japão os anos não são apenas contados segundo calendário gregoriano, mas subdivididos em períodos que correspondem aos anos do reinado de um imperador, pelo que estamos actualmente no período Heisei? Isto e muito mais sobre aspectos da cultura japonesa ficará a saber através da leitura de Crónica do Pássaro de Corda de Haruki Murakami, sobretudo através das detalhadas notas de rodapé da tradução portuguesa de Maria João Lourenço.
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).
Resumo:
Nos últimos anos, o avanço da tecnologia e a miniaturização de diversos componentes de electrónica associados a novos conceitos têm permitido nascer novas ideias e projectos, que até há alguns anos não passariam de ficção científica. Talvez o exemplo mais acabado seja actualmente o smartphone, um pequeno bloco de hardware e software, com capacidade de processamento que ultrapassa várias vezes o dos computadores com uma dúzia de anos. Estas capacidades têm sido utilizadas em comunicações, blocos de notas, agendas e até entretenimento. No entanto, podem ser reutilizadas para ajudar a resolver algumas limitações/constrangimentos da actualidade. Dentro destes destacam-se a gestão de recursos escassos. Com efeito, o consumo de energia eléctrica tem aumentado como consequência directa do desenvolvimento global e aumento do número de aparelhos eléctricos. Uma percentagem significativa de energia eléctrica tem sido produzida através de recursos não-renováveis de energia. No entanto, a dependência energética, associada à subida de preços e a redução das emissões de gases do efeito estufa, estimula o desenvolvimento de novas soluções que permitam lidar com esta situação. O desempenho energético por sua vez depende não só das características da estrutura, mas também do comportamento do utilizador. O desempenho energético dos edifícios é muito importante, uma vez que os respectivos consumos são responsáveis por mais de metade do total da energia produzida. Desta forma, a fim de alcançar um melhor desempenho é importante não só considerar o desempenho de estrutura, mas também monitorizar o comportamento do utilizador. Esta última questão coloca várias limitações, uma vez que depende muito do tipo de utilizador. Um dos conceitos actuais emergentes são as chamadas redes de sensores sem fio. Com esta tecnologia, pequenos módulos podem ser desenvolvidos com muitas possibilidades de conectividade, com elevado poder de processamento e com grande autonomia, sem serem excessivamente caros. Isto proporciona os meios para implementar vários dispositivos em toda a instalação, para recolher uma variedade de dados, sendo posteriormente armazenados num servidor. Os blocos fundamentais da infra-estrutura de sensores do projecto foram concebidos na Evoleo Technologies em simultâneo com o decorrer do estágio. Estes blocos recolhem dados específicos na instalação, e periodicamente enviam para o servidor central os valores recolhidos, onde são armazenados e colocados à disposição do utilizador. Os dados recolhidos podem então ser apresentados ao utilizador, proporcionando um registo de consumo de energia associado a um dado período de tempo. Uma vez que todos os dados são armazenados no servidor, podem ser efectuados estudos para determinar o uso típico, possíveis problemas em aparelhos, a qualidade da energia eléctrica, etc., permitindo determinar onde a energia está a ser eventualmente desperdiçada e fornecendo dados ao utilizador para que este possa proceder a alterações, tendo por base dados recolhidos num dado período. O objectivo principal deste trabalho passa por estabelecer a ligação entre o nível máquina e o nível de utilizador, isto é, uma plataforma de interacção entre dispositivos e administrador da instalação. Fornecer os dados de uma forma fácil e sem necessidade de instalação de software específico em cada dispositivo que se pretenda utilizar para monitorizar foi uma das principais preocupações das fases de concepção do projecto.
Resumo:
Mestrado em Engenharia Química – Ramo Optimização Energética na Indústria Química
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores - Ramo de Sistemas Autónomos
Resumo:
Introdução: nos pacientes que sofreram um Acidente Vascular Encefálico são incididos programas de reabilitação que visam principalmente o hemicorpo contralesional, negligenciando o lado ipsilesional. Porém, estão descritas alterações sensitivas e motoras do membro superior ipsilesional neste grupo populacional. Objetivo: avaliar os défices de sensibilidade, destreza grossa e fina e força de preensão da mão ipsilesional em indivíduos com diagnóstico de Acidente Vascular Encefálico, comparando o sexo, o hemisfério cerebral onde se localiza a lesão, a fase aguda e crónica, tendo como referência um grupo controlo. Metodologia: este estudo observacional de carácter analítico transversal foi constituído por 34 indivíduos em que 18 deles tem diagnóstico de Acidente Vascular Encefálico e 16 sem défices neurológicos. A avaliação foi iniciada com um questionário para recolha de informações dos participantes e de seguida foram aplicados instrumentos de avaliação num só momento com o mesmo examinador. Para avaliar a sensibilidade foi usado o Moving Touch-Pressure Test, para a força o Dinamómetro Baseline®, na avaliação da destreza grossa o Teste Caixa e Blocos e por fim a destreza fina com o Purdue Pegboard Test. Estatisticamente recorreu-se ao teste T-student para amostras independentes com nível de significância de 0,05. Resultados: verificou-se que o membro superior ipsilesional dos indivíduos que sofreram um AVE apresenta um défice na força de preensão manual com nível se significância de p=0,001, e de p=0,000 para a destreza fina e grossa e sensibilidade, quando comparados com um grupo controlo. Constatou-se também que no grupo de indivíduos com diagnóstico de Acidente Vascular Encefálico, o sexo masculino obteve melhores resultados em todos os parâmetros avaliados. Observou-se ainda que tanto os homens como as mulheres após sofrerem um Acidente Vascular Encefálico apresentam défices funcionais na mão ipsilesional, mas no entanto os homens apresentam apenas alterações na destreza grossa (p=0,017) e na força (p=0,001). Na comparação dos hemisférios cerebrais lesados e das fases aguda e crónica do AVE verificou-se que não houve diferenças significativas. Conclusão: Existem défices no membro superior ipsilesional após Acidente Vascular Encefálico, sendo então pertinente a sua inclusão em programas de reabilitação, podendo assim melhorar a qualidade de vida dos indivíduos com esta patologia.
Resumo:
Este trabalho centra-se no estudo do aproveitamento expectável do maciço rochoso da pedreira da Curviã N.o 2 (Joane, Vila Nova de Famalicão, no N Portugal), através da obtenção de um bloco unitário tipo que forneça indicações para a exploração do recurso geológico para fins industriais e/ou ornamentais. Desta forma, investiga-se se num dado limite de zona geotécnica do maciço rochoso e propicio a obtenção de blocos com dimensão, avaliados apos o processo de transformação, nomeadamente, para enrocamento em obras marítimas ou balastro em obras ferroviárias. Foram seleccionados diversos afloramentos, tendo-se recorrido a técnica de amostragem linear as superfícies expostas do maciço. Esta técnica e uma das formas mais expeditas de coligir dados geológico-geotécnicos relativos as descontinuidades. Procedeu-se, ainda, a um tratamento estatístico das descontinuidades, bem como dos parâmetros geológico-geotécnicos e geomecânicos a estas associadas, propostos pela Sociedade Internacional de Mecânica das Rochas (ISRM). Todos os dados foram representados cartograficamente numa base apoiada pelos Sistemas de Informação Geográfica (SIG) e utilizadas as ferramentas de geologia estrutural, analise morfotectónica, modelação digital de terreno e cartografia de zonamento geotécnico. O zonamento geotécnico do maciço granítico foi realizado sempre em estreita ligação com o conhecimento das características do maciço ”in situ”. Pretende-se que esta metodologia contribua para um melhor conhecimento da compartimentação dos maciços rochosos em geral e, em particular, do modelo geotécnico comportamental do maciço rochoso da Curviã N.o2.