1000 resultados para aportación definida
Resumo:
Sugerido para estes encontros interdisciplinares, o tema da Festa reenvia-nos para sentimentos de alegria e plenitude, para algo que traz ao quofidiano a abolição do tempo, uma centelha de renovação e etemidade, que podemos denominar de euforia. De acordo com a etimologia, a palavra foria deriva do grego (popeív e significa trazer, levar, carregar, ao passo que o prefixo eu, (et)) da mesma origem, quer dizer bem. Se juntarmos à mesma palavra, foria, o prefixo Ôya, também de origem grega, obteremos, o confrário de euforia, isto é, disforia que significa carregar mal-estar, dificuldade, desgraça. O romance de Michel Tournier, Le Roi des aulnes,^ que, segundo o autor, esteve para ser intitulado La phorie,^ organiza-se em tomo de núcleos temáticos relacionados com o sentido da palavra ^r/úf. No romance, a euforia é definida pela personagem principal como uma festa, «porter avec bonheur», mas a leitura mostra que euforia (eu-foria) e disforia (dis-foria) são dois estados reversíveis, podendo existir em simultâneo, e que a face de um pode ocultar a do outro.
Resumo:
Ao casar com Jocasta, Edipo sabia que Jocasta era Jocasta, mas não sabia, ao casar com Jocasta, que Jocasta era a sua mãe. «Si a él le hubieran hecho Ia pregunta 'Deseas casarte con Yocasta?', su respuesta hubiera sido un tajante asentimiento. Pero sucedia, tragicamente, que Edipo desconocía ei hecho de que Yocasta era su madre. Seguramente que, si se le hubiera hecho Ia pregunta '^Deseas casarte con tu madre?, habría descartado con horror esa posibilidad» (Garcia Suárez 1997: 251). Como é que a sua mulher podia ser a sua mãe? Em 1996, Donnellan distingue a descrição definida que tem valor referencial da que tem valor afributivo: «Now if there are two uses of definite descriptíons, it may be that the tmth value is affected differently in each case by the falsity ofthe presupposition or implication» (1991: 53). Pode-se dizer /O assassino do Silva é tarado/ sem que se saiba quem é /O assassino do Silva/, estando sô em contacto com um "assassino do Silva" funcional ainda não identificado, ainda não individuado. Neste caso, o uso da descrição definida tem talante atributivo. Édipo sabe perfeitamente que houve um "assassino de Laio", fiincional e não identificado
Resumo:
Ao casar com Jocasta, Edipo sabia que Jocasta era Jocasta, mas não sabia, ao casar com Jocasta, que Jocasta era a sua mãe. «Si a él le hubieran hecho Ia pregunta 'Deseas casarte con Yocasta?', su respuesta hubiera sido un tajante asentimiento. Pero sucedia, tragicamente, que Edipo desconocía ei hecho de que Yocasta era su madre. Seguramente que, si se le hubiera hecho Ia pregunta '^Deseas casarte con tu madre?, habría descartado con horror esa posibilidad» (Garcia Suárez 1997: 251). Como é que a sua mulher podia ser a sua mãe? Em 1996, Donnellan distingue a descrição definida que tem valor referencial da que tem valor afributivo: «Now if there are two uses of definite descriptíons, it may be that the tmth value is affected differently in each case by the falsity ofthe presupposition or implication» (1991: 53). Pode-se dizer /O assassino do Silva é tarado/ sem que se saiba quem é /O assassino do Silva/, estando sô em contacto com um "assassino do Silva" funcional ainda não identificado, ainda não individuado. Neste caso, o uso da descrição definida tem talante atributivo. Édipo sabe perfeitamente que houve um "assassino de Laio", fiincional e não identificado. Virá a descobrir, tragicamente, que ele mesmo, Edipo, é o assassino referencial de Laio.
Resumo:
Os adesivos têm sido alvo de estudo ao longo dos últimos anos para ligação de componentes a nível industrial. Devido à crescente utilização das juntas adesivas, torna-se necessária a existência de modelos de previsão de resistência que sejam fiáveis e robustos. Neste âmbito, a determinação das propriedades dos adesivos é fundamental para o projeto de ligações coladas. Uma abordagem recente consiste no uso de modelos de dano coesivo (MDC), que permitem simular o comportamento à fratura das juntas de forma bastante fiável. Esta técnica requer a definição das leis coesivas em tração e corte. Estas leis coesivas dependem essencialmente de 2 parâmetros: a tensão limite e a tenacidade no modo de solicitação respetivo. O ensaio End-Notched Flexure (ENF) é o mais utilizado para determinar a tenacidade em corte, porque é conhecido por ser o mais expedito e fiável para caraterizar este parâmetro. Neste ensaio, os provetes são sujeitos a flexão em 3 pontos, sendo apoiados nas extremidades e solicitados no ponto médio para promover a flexão entre substratos, o que se reflete numa solicitação de corte no adesivo. A partir deste ensaio, e após de definida a tenacidade em corte (GIIc), existem alguns métodos para estimativa da lei coesiva respetiva. Nesta dissertação são definidas as leis coesivas em corte de três adesivos estruturais através do ensaio ENF e um método inverso de ajuste dos dados experimentais. Para o efeito, foram realizados ensaios experimentais considerado um adesivo frágil, o Araldite® AV138, um adesivo moderadamente dúctil, o Araldite® 2015 e outro dúctil, o SikaForce® 7752. O trabalho experimental consistiu na realização dos ensaios ENF e respetivo tratamento dos dados para obtenção das curvas de resistência (curvas-R) através dos seguintes métodos: Compliance Calibration Method (CCM), Direct Beam Theory (DBT), Corrected Beam Theory (CBT) e Compliance-Based Beam Method (CBBM). Os ensaios foram simulados numericamente pelo código comercial ABAQUS®, recorrendo ao Métodos de Elementos Finitos (MEF) e um MDC triangular, com o intuito de estimar a lei coesiva de cada um dos adesivos em solicitação de corte. Após este estudo, foi feita uma análise de sensibilidade ao valor de GIIc e resistência coesiva ao corte (tS 0), para uma melhor compreensão do efeito destes parâmetros na curva P- do ensaio ENF. Com o objetivo de testar adequação dos 4 métodos de obtenção de GIIc usados neste trabalho, estes foram aplicados a curvas P- numéricas de cada um dos 3 adesivos, e os valores de GIIc previstos por estes métodos comparados com os respetivos valores introduzidos nos modelos numéricos. Como resultado do trabalho realizado, conseguiu-se obter uma lei coesiva única em corte para cada um dos 3 adesivos testados, que é capaz de reproduzir com precisão os resultados experimentais.
Resumo:
Neste trabalho estudou-se a nova regulamentação de térmica em edifícios, Decreto-Lei nº 118/2013, dando particular ênfase ao Regulamento de Desempenho Energético dos Edifícios de Habitação, REH. Para o efeito, aplicou-se a metodologia definida nesta legislação a um edifício de habitação unifamiliar e compararam-se os resultados obtidos com os resultados da ferramenta de cálculo automático elaborada pelo ITEcons. Fizeram-se ainda várias simulações para as diferentes zonas climáticas possíveis e comparou-se também com o mesmo edifício mas admitindo que todas as soluções construtivas são as de referência.
Resumo:
Nos últimos anos tem-se verificado a constante evolução dos mercados em plataformas na Internet como forma de melhoria não só dos serviços prestados, mas também para o aumento de vendas de produtos e respetiva internacionalização dos mesmos. Este aumento da procura por este tipo de softwares, assim como a constante evolução e atualização dos mesmos tem contribuído para que estas aplicações evoluam em termos de funcionalidades e complexidade. Isto contribui cada vez para a dificuldade de formar equipas capazes de manter e desenvolver estes sistemas sem que comprometa em grandes custos para as organizações. Neste sentido surgiram diversas ferramentas que permitem criar soluções pré desenvolvidas de aplicações na Internet denominadas de "E-commerce applications". Estas plataformas, apesar do utilizador não ter obrigatoriamente que deter conhecimentos de programação para proceder à sua instalação, são bastante restritas tanto aos serviços que podem ser usados, e na sua escalabilidade, visto que normalmente correm em servidores específicos e por vezes as configurações necessárias para instalação tornam-se bastante complexas de ser efetuadas. Pretende-se no âmbito desta dissertação de mestrado propor um modelo de uma arquitetura de um sistema baseado em mecanismos MDA para a área de retalho, particularmente em ambientes de e-commerce. Serão inicialmente sistematizados os principais tipos de ecommerce numa perspetiva de evolução histórica. Será igualmente enquadrado o MDA no desenvolvimento de um sistema de e-commerce. Neste sentido, serão equacionadas as diferenças entre o modelo típico de desenvolvimento de software e o desenvolvimento de software orientado pelas metodologias do MDA. No processo de especificação e desenvolvimento do modelo proposto será realizada uma análise de requisitos, assim como, a proposta do modelo da arquitetura de um sistema baseado em mecanismos MDA, tendo como orientação os requisitos e arquitetura definida na fase de análise. Finalmente no sentido de analisar o resultado esperado para um sistema orientado por metodologias definidas por MDA, serão realizado alguns testes no sistema desenvolvido de forma a analisar o seu desempenho e validar a sua adequabilidade no âmbito do processo de desenvolvimento de sistemas e-commerce
Resumo:
A anafilaxia idiopática, descrita pela primeira vez em 1978, é um diagnóstico de exclusão, sendo definida como uma forma de anafilaxia na qual, após investigação exaustiva, não é possível encontrar uma causa específica. Após o seu reconhecimento, foram descritos novos casos, publicadas várias séries de doentes, sendo actualmente uma entidade bem caracterizada, com um sistema de classificação e com um esquema de tratamento bem definido e eficaz. Apesar de ser potencialmente fatal, está associada a um bom prognóstico na maioria dos doentes. Um diagnóstico atempado, bem como a aplicação dos protocolos terapêuticos recomendados, resulta numa diminuição do número de episódios, do número de hospitalizações e dos custos associados.
Resumo:
Introdução: Desde 1989 que em Portugal as taxas de mortalidade materna, perinatal e neonatal apresentam uma diminuição significativa, em parte devido à rede perinatal implementada. Auditorias às condições existentes nos diferentes níveis de cuidados constituem um instrumento fundamental para identificar desvios da normalidade definida e podem ser um contributo para a melhoria de cuidados. Objectivos: Conhecer as condições e práticas de assistência nas salas de parto nacionais e, quando se justificar, propôr medidas de melhoria dos cuidados neonatais. Material e métodos: Foi enviado, por via electrónica, um questionário a 35 centros hospitalares com maternidade. O inquérito incluía questões relacionadas com os recursos humanos, equipamento disponível, características das salas de partos, práticas usadas na estabilização/ reanimação do recém-nascido, número de partos e número de recém-nascidos transferidos após o nascimento por ano, bem como questões relacionadas com a articulação com as equipas de obstetrícia. Resultados: Responderam 30 (86%) centros, 16 de apoio perinatal diferenciado. Oito (27%) centros têm pediatra presente em todos os partos, os restantes centros têm pediatra disponível para as situações de maior risco. Entre o material não disponível em alguns centros salienta-se o equipamento de monitorização cardio-respiratória, dispositivo de apoio ventilatório com pressão controlada, misturador de oxigénio, ventilador, CPAP (continuous positive airway pressure), incubadora de transporte e material para toracocentese e paracentese. Os critérios usados para oxigenoterapia e uso de surfactante “profiláctico” não são os mesmos entre os diversos centros. Todos os centros referiram a necessidade transferir recém-nascidos após o nascimento, quer por falta de diferenciação de cuidados quer por falta de vagas para internamento. Os centros de apoio perinatal referiram pior colaboração por parte das equipas de obstetrícia. Conclusâo: Os cuidados prestados ao recém-nascido nas salas de partos nacionais podem e devem ser melhorados. É necessário adequar o equipamento e recursos humanos às necessidades de cada centro. É necessário actualizar protocolos de práticas como oxigenoterapia e uso de surfactante “profiláctico”, reduzir o transporte após o nascimento e melhorar a comunicação com as equipas de obstetrícia.
Resumo:
Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.
Resumo:
No âmbito da unidade curricular Dissertação/Projeto do 2º ano do Mestrado em Engenharia mecânica – Ramo Gestão Industrial do Instituto Superior de Engenharia do Porto, o presente trabalho enquadra-se na análise do processo de desenvolvimento de novos produtos na indústria, como suporte à gestão de projetos. No seguimento da necessidade que as empresas têm cada vez mais presente em investirem na melhoria do processo de desenvolvimento de novos produtos, isso conduz a uma garantia de cumprimento de prazos e qualidade, à redução de custos, aumento de vendas, aumento de receitas, satisfação de clientes, entre outros benefícios. O trabalho foi desenvolvido, na empresa Doureca Produtos Plásticos, Lda, no Departamento de Engenharia. À medida que o projeto de melhoria avançou, foi cativante observar como os resultados obtidos contribuíam para a alteração dos paradigmas de trabalho da empresa e o impacto na melhoria continua, em função do caminho traçado da busca da máxima eficiência e eficácia. As ferramentas de melhoria são o suporte ideal, que ajudam a atingir a meta da sustentabilidade dos negócios, mas o maior obstáculo, continua a ser o fator humano. A implementação destes sistemas de melhoria requer uma maior abertura para a utilização das respetivas ferramentas, e uma mobilização dos diferentes intervenientes com vista à obtenção de resultados. Após uma avaliação da situação inicial, foram identificados pontos a melhorar na organização, de seguida foi definida a visão do que deveria ser implementado tendo em conta a estratégia da empresa, e posteriormente executado um plano de implementação das melhorias. No decurso do trabalho foram implementadas novas ferramentas de auxílio para o desenvolvimento de novos produtos como suporte à gestão de projetos. Estas ferramentas são apoiadas na filosofia LEAN, de forma a eliminar desperdícios e criar valor através da melhor utilização dos recursos.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
O ensino à distância cresceu consideravelmente nos últimos anos e a tendência é para que continue a crescer em anos vindouros. No entanto, enquanto que a maioria das plataformas de ensino à distância utilizam a mesma abordagem de ensino para todos os utilizadores, os estudantes que as usam são na realidade pessoas de diferentes culturas, locais, idades e géneros, e que possuem diferentes níveis de educação. Ao contrário do ensino à distância tradicional, os sistemas de hipermédia adaptativa educacional adaptam interface, apresentação de conteúdos e navegação, entre outros, às características, necessidades e interesses específicos de diferentes utilizadores. Apesar da investigação na área de sistemas de hipermédia adaptativa já estar bastante desenvolvida, é necessário efetuar mais desenvolvimento e experimentação de modo a determinar quais são os aspetos mais eficazes destes sistemas e avaliar o seu sucesso. A Plataforma de Aprendizagem Colaborativa da Matemática (PCMAT) é um sistema de hipermédia adaptativa educacional com uma abordagem construtivista, que foi desenvolvido com o objetivo de contribuir para a investigação na área de sistemas de hipermédia adaptativa. A plataforma avalia o conhecimento do utilizador e apresenta conteúdos e atividades adaptadas às características e estilo de aprendizagem dominante de estudantes de matemática do segundo ciclo. O desenvolvimento do PCMAT tem também o propósito de auxiliar os alunos Portugueses com a aprendizagem da matemática. De acordo com o estudo PISA 2012 da OCDE [OECD, 2014], o desempenho dos alunos Portugueses na área da matemática melhorou em relação à edição anterior do estudo, mas os resultados obtidos permanecem abaixo da média da OCDE. Por este motivo, uma das finalidades deste projeto é desenvolver um sistema de hipermédia adaptativa que, ao adequar o ensino da matemática às necessidades específicas de cada aluno, os assista com a aquisição de conhecimento. A adaptação é efetuada pelo sistema usando a informação constante no modelo do utilizador para definir um grafo de conceitos do domínio específico. Este grafo é adaptado do modelo do domínio e utilizado para dar resposta às necessidades particulares de cada aluno. Embora a trajetória inicial seja definida pelo professor, o percurso percorrido no grafo por cada aluno é determinado pela sua interação com o sistema, usando para o efeito a representação do conhecimento do aluno e outras características disponíveis no modelo do utilizador, assim como avaliação progressiva. A adaptação é conseguida através de alterações na apresentação de conteúdos e na estrutura e anotações das hiperligações. A apresentação de conteúdos é alterada mostrando ou ocultando cada um dos vários fragmentos que compõe as páginas dum curso. Estes fragmentos são compostos por diferentes objetos de aprendizagem, tais como exercícios, figuras, diagramas, etc. As mudanças efetuadas na estrutura e anotações das hiperligações têm o objetivo de guiar o estudante, apontando-o na direção do conhecimento mais relevante e mantendo-o afastado de informação inadequada. A escolha de objectos de aprendizagem adequados às características particulares de cada aluno é um aspecto essencial do modelo de adaptação do PCMAT. A plataforma inclui para esse propósito um módulo responsável pela recomendação de objectos de aprendizagem, e um módulo para a pesquisa e recuperação dos mesmos. O módulo de recomendação utiliza lógica Fuzzy para converter determinados atributos do aluno num conjunto de parâmetros que caracterizam o objecto de aprendizagem que idealmente deveria ser apresentado ao aluno. Uma vez que o objecto “ideal” poderá não existir no repositório de objectos de aprendizagem do sistema, esses parâmetros são utilizados pelo módulo de pesquisa e recuperação para procurar e devolver ao módulo de recomendação uma lista com os objectos que mais se assemelham ao objecto “ideal”. A pesquisa é feita numa árvore k-d usando o algoritmo k-vizinhos mais próximos. O modelo de recomendação utiliza a lista devolvida pelo módulo de pesquisa e recuperação para seleccionar o objecto de aprendizagem mais apropriado para o aluno e processa-o para inclusão numa das páginas Web do curso. O presente documento descreve o trabalho desenvolvido no âmbito do projeto PCMAT (PTDS/CED/108339/2008), dando relevância à adaptação de conteúdos.
Resumo:
Os sistemas autónomos trazem como mais valia aos cenários de busca e salvamento a possibilidade de minimizar a presença de Humanos em situações de perigo e a capacidade de aceder a locais de difícil acesso. Na dissertação propõe-se endereçar novos métodos para perceção e navegação de veículos aéreos não tripulados (UAV), tendo como foco principal o planeamento de trajetórias e deteção de obstáculos. No que respeita à perceção foi desenvolvido um método para gerar clusters tendo por base os voxels gerados pelo Octomap. Na área de navegação, foram desenvolvidos dois novos métodos de planeamento de trajetórias, GPRM (Grid Probabilistic Roadmap) e PPRM (Particle Probabilistic Roadmap), que tem como método base para o seu desenvolvimento o PRM. O primeiro método desenvolvido, GPRM, espalha as partículas numa grid pré-definida, construindo posteriormente o roadmap na área determinada pela grid e com isto estima o trajeto mais curto até ao ponto destino. O segundo método desenvolvido, PPRM, espalha as partículas pelo cenário de aplicação, gera o roadmap considerando o mapa total e atribui uma probabilidade que irá permitir definir a trajetória otimizada. Para analisar a performance de cada método em comparação com o PRM, efetua-se a sua avaliação em três cenários distintos com recurso ao simulador MORSE.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
INTRODUÇÃO: O Gabinete Coordenador de Colheita e Transplantação (GCCT) do Hospital S. José – CHLC, EPE, criado através do Despacho nº 269/1993, de 17 de Novembro, tem como missão prestar um serviço de excelência na área da doação, colheita e transplantação de órgãos e tecidos, e propor soluções inovadoras com vista à otimização de processos e à melhoria contínua da qualidade dos serviços que presta. O programa de transplantação dos Hospitais Civis de Lisboa (HCL) remonta ao ano de 1961, com os primeiros transplantes de córnea no Hospital de Santo António dos Capuchos. Posteriormente entraram em funcionamento as unidades de transplantação cardíaca no Hospital de Sta Marta e unidade de transplantação renal no Hospital Curry Cabral em 1988. Em 1991, é realizado o primeiro transplante de coração pulmão no Hospital de Sta Marta, em 1992 iniciou-se o programa de transplante hepático no Hospital Curry Cabral e em 1997 tem inicio o programa de transplante de medula no Hospital de Stº António dos Capuchos. Nesta altura, o enxerto de pele era uma terapêutica vulgarizada nos Hospitais Civis de Lisboa. No ano de 2007, foi implementado o programa de colheita de membrana amniótica e até ao momento presente é o único GCCT que tem este programa ativo. Não obstante o esforço desenvolvido pelo GCCT, em estreita colaboração com o Banco de Tecidos do Instituto Português do Sangue e da Transplantação, IP (IPST, IP), entidade responsável pela análise, processamento, preservação, armazenamento e distribuição de tecidos de origem humana com a qual o GCCT estabeleceu protocolo de colaboração para todos os tecidos colhidos (à exceção das córneas), tem-se constatado que o país não é autossuficiente no que aos tecidos diz respeito sendo recorrente a importação de tecidos pelo referido Banco de forma a dar resposta às solicitações nacionais. METODOLOGIA E RESULTADOS: Para conhecer o potencial de doação de tecidos em dador em coração parado procuramos a nossa amostra em dois grupos diferentes: os dadores de córnea do CHLC, EPE em coração parado de 2013 (83 dadores) e os falecidos no CHLC, que em 2013 que cumpriam critérios para dadores de córneas e não foram referenciados. Para ambos os grupos foi definida a idade limite para doação de algum tipo de tecido (além das córneas), os 65 anos (idade limite para a doação de tecidos, de acordo com os critérios em vigor - 2010 - do Banco de Tecidos do IPST, IP com o qual o GCCT estabeleceu protocolo de colaboração). A nossa amostra é, então, composta por 29 dadores de córneas em 2013 com idade inferior a 65 anos e 26 falecidos não referenciados com idade inferior a 65 anos (consulta diária dos mapas dos falecidos permite identificar os falecidos não referenciados pelas unidades/serviços). Os resultados obtidos levam-nos a concluir que é decisiva a implementação de programas de colheita de tecidos em dador em coração parado de forma a alargar o número de dadores e, desta forma, contribuir para a autossuficiência nacional, em conjunto com a reorganização desta atividade nos dadores em morte cerebral bem como a revisão dos critérios de seleção de dadores de aloenxertos, de acordo com as várias recomendações internacionais.