17 resultados para Heterogeneidade
em Instituto Politécnico do Porto, Portugal
Resumo:
O sucesso educativo dos alunos é como facilmente se compreenderá, a essência do ato educativo nas suas múltiplas dimensões e formas. O percurso para a obtenção desse sucesso é variado e representa muitas vezes um enorme investimento das organizações educativas nomeadamente na gestão dos seus recursos humanos. Por outro lado, o modelo organizativo instituído pode ser o fator preponderante para a obtenção do sucesso procurado sobretudo quando ele é promotor de um clima harmonioso e motivador para o ato educativo. O projeto apresentado neste estudo estruturou-se numa nova construção dos grupos de trabalho, em que o conceito tradicional de turma foi substituído por grupos, constituídos por alunos cujo grau de conhecimento e competências no âmbito das disciplinas de Português e Matemática, fosse o mais aproximado possível não perdendo de vista o princípio de heterogeneidade do grupo mesmo que relativa ou diminuída, tão importante para promover a diversidade. Este sistema organizativo rompeu com o conceito tradicional da turma o que implicou uma alteração não só na organização de horários escolares dos alunos e docentes mas também obrigou estruturação e implementação de um processo de mobilidades dos alunos entre grupos em função do seu grau de aprendizagens ou de dificuldades na sua obtenção. Este projeto foi ainda promotor de uma cultura de trabalho colaborativo e partilha entre docentes de cada grupo disciplinar promovendo a sistematização de interações entre pares quer na preparação das atividades letivas quer na discussão e resolução dos constrangimentos que o desenvolvimento do projeto evidenciou.
Resumo:
Introdução: O medicamento citotóxico é definido pelas suas características de genotoxicidade, mutagenicidade, carcinogenicidade, teratogenicidade, toxicidade reprodutiva e toxicidade orgânica em baixas doses. Deste modo, existe uma grande preocupação no que concerne ao manuseamento deste tipo de medicamentos, devido aos riscos ocupacionais que podem surtir da exposição a que os profissionais de farmácia envolvidos estão sujeitos. Objectivos: Analisar a realidade da farmácia hospitalar face ao cumprimento das normas e procedimentos preconizados pelas actuais guidelines para o manuseamento seguro de medicamentos citotóxicos, e identificar as lacunas existentes, conduzindo à promoção de práticas centradas na minimização do risco de exposição/contaminação dos profissionais e do ambiente. Material e Métodos: Foi realizada uma pesquisa bibliográfica sistemática sobre o tema, utilizando-se como instrumento de recolha de dados um inquérito por questionário, em que os TDT de Farmácia foram abordados sobre os procedimentos verificados no hospital onde exercem actividade profissional. Resultados: Face ao cumprimento das normas na recepção, armazenamento e transporte de medicamentos citotóxicos, verifica-se que todos os hospitais se encontram acima da média. Apesar desta evidência, é na fase de transporte que se verifica um menor cumprimento. As principais lacunas detectadas foram ao nível da não utilização de EPI nas fases de recepção e armazenamento; a recepção de medicamentos citotóxicos em conjunto com outros medicamentos; a falta de um sistema de ventilação no local de armazenamento e, ainda, ausência de portas de correr e/ou gavetas fechadas nos carros de transporte de medicamentos citotóxicos. Conclusões: Os resultados deste estudo revelam alguma heterogeneidade de procedimentos nos hospitais Portugueses, sugerindo a necessidade de intervenção e reformulação do programa de segurança e gestão de risco desenvolvidos para o manuseamento de citotóxicos.
Resumo:
O surgimento de novos modelos de negócio, nomeadamente o estabelecimento de parcerias entre organizações, a possibilidade de as empresas poderem adicionar informação existente na web, em especial na web semânjtica, à informação de que dispõem, levou ao acentuar de alguns problemas já existentes nas bases de dados, nomeadamente no que respeita a problemas de qualidade de dados. Dados de má qualidade podem levar à perda de competitividade das organizações que os detêm, podendo inclusive levar ao seu desaparecimento, uma vez que muitas das suas tomadas de decisão são baseadas nestes dados. Por este motivo torna-se relevante a limpeza de dados que é um processo automático de detecção e eventual correção dos problemas de qualidade de dados, tais como registos duplicados, dados incompletos, e/ou inconsistentes. As abordagens atualmente existentes para solucionar estes problemas, encontram-se muito ligadas ao esquema das bases de dados e a domínios específicos. Para que as operações de limpeza de dados possam ser utilizadas em diferentes repositórios, torna-se necessário o entendimento, por parte dos sistemas computacionais, desses mesmos dados, ou seja, é necessária uma semântica associada. A solução apresentada passa pelo uso de ontologias, como forma de representação das operações de limpeza, para solucionar os problemas de heterogeneidade semântica, quer ao nível dos dados existentes nos diversos repositórios, quer ao nível da especificação das operações de limpeza. Estando as operações de limpeza definidas ao nível conceptual e existindo mapeamentos entre as ontologias de domínio e a ontologia associada a uma qualquer base de dados, aquelas poderão ser instanciadas e propostas ao utilizador para serem executadas sobre essa base de dados, permitindo assim a sua interoperabilidade.
Resumo:
O presente relatório é a última etapa para a obtenção do Grau de Mestre em Tecnologia e Gestão das Construções leccionado no Instituto Superior de Engenharia do Porto, (ISEP). O estágio decorreu em ambiente maioritariamente de obra na empresa Monte Adriano, Engenharia e Construção, SA, e o objectivo consistiu em dar apoio e acompanhar a Obra de Ampliação do Reservatório de Custóias, inserida na Empreita de concepção, projecto e construção das infraestruturas necessárias à execução do plano de investimentos da Indáqua Matosinhos, actividades estas, decorrentes da função de adjunta de direcção de obra. Para além da breve descrição da empresa que a estagiária integrou e da empreitada geral, foi feita uma enumeração das várias actividades desempenhadas na Obra e dos vários condicionalismos encontrados que por vezes levaram a alterações do projecto. Dá-se especial ênfase à parte da execução das fundações, quer pela heterogeneidade do solo e sua relevância no geral, quer pelo facto do tempo de execução da obra ser praticamente o tempo do estágio. A obra consiste na execução de três células em painéis pré-fabricados SOPLACAS (paredes e cobertura), sendo que, as lajes de soleira de duas das células apoiam em poços e a laje de soleira da outra célula apoia directamente no terreno e em poços. Anexa às células encontra-se a câmara de manobras, executada em estrutura de betão armado.
Resumo:
The constant evolution of the Internet and its increasing use and subsequent entailing to private and public activities, resulting in a strong impact on their survival, originates an emerging technology. Through cloud computing, it is possible to abstract users from the lower layers to the business, focusing only on what is most important to manage and with the advantage of being able to grow (or degrades) resources as needed. The paradigm of cloud arises from the necessity of optimization of IT resources evolving in an emergent and rapidly expanding and technology. In this regard, after a study of the most common cloud platforms and the tactic of the current implementation of the technologies applied at the Institute of Biomedical Sciences of Abel Salazar and Faculty of Pharmacy of Oporto University a proposed evolution is suggested in order adorn certain requirements in the context of cloud computing.
Resumo:
Mestrado em Engenharia Electrotécnica – Sistemas Eléctricos de Energia
Resumo:
Numa sociedade onde as correntes migrações desenham um novo contexto de sociabilização e onde a globalização conduz ao aumento incomensurável das reuniões interculturais, é fulcral recentrar a importância do ensino da interpretação dita de comunidade. A inauguração do Mestrado em Tradução e Interpretação Especializadas, no ano lectivo de 2007/2008, no Instituto Superior de Contabilidade e Administração do Porto, reformulado a partir da Licenciatura Bi-Etápica homónima, veio apresentar um desenho dos curricula em Interpretação cujo entendimento é mais pragmático. Assim sendo, à tradicional divisão entre Interpretação Simultânea e Interpretação Consecutiva sucedeu a introdução das unidades curriculares de Interpretação de Conferência, Interpretação Remota e de Teleconferência e de Interpretação de Acompanhamento. Este estudo pretende apresentar e discutir as diferentes abordagens pedagógicas ensaiadas no decorrer da implementação da unidade curricular de Interpretação de Acompanhamento, sustentadas por uma reflexão de cariz científico-pedagógico, filtrada pelas tendências de investigação mais recentes nesta área. Adoptámos a designação de Interpretação de Acompanhamento para descrever uma situação comunicativa que decorre em contextos variados e heterogéneos, em detrimento de outras designações de abrangência mais restrita, como Interpretação de Liaison – que remete para um acompanhamento em contexto de negócios ou de visita cultural ou turística – e Interpretação de Comunidade – reportando-se à mediação linguística de alguém que não fala a linguagem da maioria, normalmente no âmbito judicial, social, ou de saúde. Concentraremos, por conseguinte, a nossa atenção nas questões que se seguem: Que estratégias pedagógicas melhor se adaptam ao ensino desta disciplina? Como reproduzir a heterogeneidade dos contextos comunicativos que a Interpretação de Acompanhamento envolve numa sala de aula? Que ponderação deve assumir o desempenho linguístico em comparação com as competências de mediação intercultural? Como integrar, na prática, conceitos e teorias no domínio da Interpretação de Acompanhamento?
Resumo:
Num passado relativamente recente, o processo de demolição tem experimentado várias mudanças, que incidem principalmente na forma como o edifício ou estrutura vai ser demolido. Mais recentemente, o surgimento das preocupações ambientais levam hoje a falar de "desconstrução", em função do prejuízo das demolições. O termo desconstrução é usado para descrever o processo de desmantelamento e remoção seletiva de materiais de construção em vez da demolição tradicional. O sucesso da desconstrução vem em função do planeamento antecipado, da aplicação contínua das regras de segurança e da formação e informação para todos os trabalhadores. A triagem de materiais de demolição é de certa forma imposta pela preocupação das empresas que contribuem para a economia de recursos naturais. Esta metodologia é uma melhoria contínua, porém muito mais diversificados os materiais obtidos e a sua heterogeneidade. A correta gestão do fluxo de resíduos de construção e demolição é importante e o seu interesse na reciclagem de resíduos tem aumentado constantemente. Esse interesse é dirigido pelo grande volume desses materiais, os custos associados e uma maior consciência das oportunidades de reciclar. Auxiliando também no desenvolvimento dos mercados locais para os resíduos, tanto para os materiais que são diretamente reutilizados, como os que são reciclados, sendo novamente aplicados na construção civil. Esta dissertação aborda os métodos comummente utilizados na demolição de edifícios que dão mais atenção ao planeamento e execução dos trabalhos de demolição, garantindo a segurança no local de trabalho.
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria sob orientação da Doutora Alcina Portugal Dias
Resumo:
A crescente existência de espaços multilingues de partilha de informação - como as redes sociais e as redes colaborativas, que se caracterizam pela heterogeneidade e multiculturalidade - cria a necessidade da existência de novos tipos de sistemas de organização do conhecimento que tornem mais eficiente a partilha de conhecimento. No entanto, verifica-se, ainda, uma falha de comunicação entre as representações formalizadas do conhecimento, como as ontologias, e os utilizadores que recorrem à sua língua (natural) para aceder ao conhecimento. Como forma de ultrapassar esta falha, apontámos a necessidade de explorar e desenvolver mais aprofundadamente as técnicas e ferramentas de tradução e localização em adequação a este contexto, em conjugação com a promoção de novas abordagens, de carácter multidisciplinar, com recurso a modelos de conhecimento do mundo inspirados, por exemplo, nas redes sociais, visão que procuraremos desenvolver neste artigo. Tendo em conta esta proposta, propomo-nos a analisar as lacunas patentes no acesso à informação e à comunicação especializada multilingue e a refletir sobre o modo como este cenário representa um problema para as organizações internacionais, em geral, e para as organizações portuguesas, em particular. Nesse sentido, e tendo em especial atenção o uso da língua portuguesa como língua de conhecimento, pretendemos apresentar uma análise ao processo de localização de ontologias e a diferentes abordagens e ferramentas que promovem a integração e a gestão dos elementos multilingues de uma ontologia, tendo por base um caso de estudo desenvolvido no seio de um domínio específico – o da reabilitação urbana - e de uma rede colaborativa multilingue e multicultural. Exploraremos, finalmente, neste contexto, o papel desempenhado pela terminologia na representação do conhecimento, mais especificamente, no desenvolvimento dos processos de conceptualização e especificação multilingue de ontologias.
Resumo:
A aplicação do material compósito é neste momento bastante vasta, graças à combinação das suas características específicas, tais como, maior resistência específica e módulos específicos e melhor resistência à fadiga, quando comparados com os metais convencionais. Tais características, quando requeridas, tornam este material ideal para aplicações estruturais. Esta caminhada de sucesso iniciou desde muito cedo, quando o material compósito já era utilizado para fabrico de armas pelos mongóis e na construção civil pelos hebreus e egípcios, contudo, só a partir dos meados do século XX é que despertou interesses para aplicações mais modernas. Atualmente os materiais compósitos são utilizados em equipamentos domésticos, componentes elétricos e eletrónicos, passando por materiais desportivos, pela indústria automóvel e construção civil, até indústrias de grande exigência e visibilidade tecnológica como a aeronáutica, espacial e de defesa. Apesar das boas características apresentadas pelos materiais compósitos, no entanto, estes materiais têm tendência a perderem as suas propriedades quando submetidas a algumas operações de acabamento como a furação. A furação surge da necessidade de ligação de peças de um mesmo mecanismo. Os furos obtidos por este processo devem ser precisos e sem danos para garantir ligações de alta resistência e também precisas. A furação nos materiais compósitos é bastante complexa devido à sua heterogeneidade, anisotropia, sensibilidade ao calor e pelo facto de os reforços serem extremamente abrasivos. A operação de furação pode causar grandes danos na peça, como a delaminação a entrada, defeitos de circularidade do furo, danos de origem térmica e a delaminação à saída que se apresenta como o mais frequente e indesejável. Com base nesses pressupostos é que este trabalho foi desenvolvido de forma a tentar obter processos simples para determinação e previsão de danos em polímeros reforçados com fibras (de carbono neste caso) de forma a precavê-los. De forma a conseguir estes objetivos, foram realizados ensaios de início de delaminação segundo a proposta de Lachaud et al. e ensaios de pin-bearing segundo a proposta de Khashaba et al. Foram também examinadas extensões de danos de acordo com o modelo de Fator de delaminação ajustado apresentado por Davim et al. A partir dos ensaios, de pin-bearing, realizados foram analisadas influências do material e geometria da broca, do avanço utilizado na furação e de diferentes orientações de empilhamentos de placas na delaminação de laminados compósitos e ainda a influências dessas variáveis na força de rutura por pin-bearing. As principais conclusões tiradas daqui são que a delaminação aumenta com o aumento do avanço, o que já era esperado, as brocas em carboneto de tungsténio são as mais recomendas para a furação do material em causa e que a delaminação é superior para a placa cross-ply quando comparada com placas unidirecionais. Para a situação de ensaios de início de delaminação foram analisadas as influências da variação da espessura não cortada por baixo da broca/punção, de diferentes geometrias de brocas, da alteração de velocidade de ensaio e diferentes orientações de empilhamentos de placas na força de início de delaminação. Deste ensaio as principais conclusões são que a força de início de delaminação aumenta com o aumenta da espessura não cortada e a influência da velocidade de ensaio altera com a variação das orientações de empilhamento.
Resumo:
Atualmente, os sistemas de informação hospitalares têm de possibilitar uma utilização diferenciada pelos diferentes intervenientes, num cenário de constante adaptação e evolução. Para tal, é essencial a interoperabilidade entre os sistemas de informação do hospital e os diversos fornecedores de serviços, assim como dispositivos hospitalares. Apesar da necessidade de suportar uma heterogeneidade entre sistemas ser fundamental, o acesso/troca de informação deve ser feito de uma forma protocolada, segura e transparente. A infraestrutura de informação médica moderna consiste em muitos sistemas heterogéneos, com diversos mecanismos para controlar os dados subjacentes. Informações relativas a um único paciente podem estar dispersas por vários sistemas (ex: transferência de pacientes, readmissão, múltiplos tratamentos, etc.). Torna-se evidente a necessidade aceder a dados do paciente de forma consolidada a partir de diferentes locais. Desta forma, é fundamental utilizar uma arquitetura que promova a interoperabilidade entre sistemas. Para conseguir esta interoperabilidade, podem-se implementar camadas de “middleware” que façam a adaptação das trocas de informação entre os sistemas. Todavia, não resolvemos o problema subjacente, ou seja, a necessidade de utilização de um standard para garantir uma interacção fiável entre cliente/fornecedor. Para tal, é proposto uma solução que passa por um ESB dedicado para a área da saúde, denominada por HSB (Healthcare Service Bus). Entre as normas mais usuais nesta área devem-se salientar o HL7 e DICOM, esta última mais especificamente para dispositivos de imagem hospitalar, sendo a primeira utilizada para gestão e trocas de informação médica entre sistemas. O caso de estudo que serviu de base a esta dissertação é o de um hospital de média dimensão cujo sistema de informação começou por ser uma solução monolítica, de um só fornecedor. Com o passar dos anos, o fornecedor único desagregou-se em vários, independentes e concorrentes, dando lugar a um cenário extremamente preocupante em termos de manutenção e evolução futura do sistema de informação existente. Como resultado do trabalho efetuado, foi proposta uma arquitetura que permite a evolução do sistema atual de forma progressiva para um HSB puro.
Resumo:
Introdução: Estudos actuais sugerem que o sono possui um papel importante na melhoria do desempenho motor em adultos. Porém, em crianças saudáveis os resultados são contraditórios, indicando que apenas a passagem do tempo pode produzir um ganho ilusório. Objetivo: Identificar e sumarizar a evidência acerca do impacto do sono no desempenho de tarefas de memória procedimental em crianças saudáveis. Métodos: Foi conduzida uma pesquisa bibliográfica nas principais bases de dados electrónicas, Medline, ISI Web of Science e Scopus. Esta foi realizada até 17 de Maio de 2015 e de acordo com o equação de pesquisa. Após a selecção dos artigos, segundo os critérios de inclusão e exclusão, avaliou-se a qualidade metodológica com recurso ao instrumento designado QATSDD (Quality Assessment Tool and Scoring Guidance Notes) e outro instrumento para estudos de intervenção beforeafter, sem grupo de controlo, desenvolvido por profissionais de sáude pertencentes ao National Institutes of Health. A meta-análise foi realizada com a medida do tempo de reacção, usando a diferença das médias padronizadas. O método estatístico utilizado foi Mantel-Haenszel para efeitos aleatórios. Resultados: Conduziu-se a revisão sistemática com quatorze artigos publicados entre 2007 e 2014, três estudos usados na meta-análise. Apenas quatro estudos denotaram melhorias, estatisticamente significativas, no que diz respeito ao efeito de um período de sono no desempenho de uma tarefa motora em crianças. Pelo contrário, a maioria dos estudos é a favor de que um período de sono prejudica o desempenho. Na meta-análise mostra-se que a vigília favorece os valores do tempo de reacção. Conclusões: A presente evidência não suporta o facto de que um período de sono optimiza o desempenho de tarefas de memória procedimental em crianças. Dadas as limitações apresentadas, nomeadamente a heterogeneidade das intervenções e reduzida qualidade metodológica dos estudos incluídos, sem grupo de controlo, sugere-se a realização de estudos futuros com maior nível de evidência.
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação do Doutor Manuel Moreira da Silva Esta versão não contém as críticas e sugestões dos elementos do júri
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.