997 resultados para Otimização de topologia
Resumo:
Um dos maiores desafios da Humanidade no século XXI é o fornecimento de habitações adequadas a toda a população Mundial, em especial aos países em desenvolvimento. Estima-se que no ano de 2030, aproximadamente 40% da população Mundial viverá em habitações precárias. As inúmeras iniciativas de fomento habitacional que têm sido desenvolvidas para combater esta problemática são em número e eficácia insuficiente, sendo o custo associado a uma habitação o fator preponderante. Portanto, esta é uma realidade cada vez mais próxima, e que exige a necessidade de se alcançar a otimização de modelos habitacionais que conduzam à respetiva diminuição dos custos, em face do montante financeiro a realizar. Neste sentido, a presente dissertação pretende alcançar um modelo habitacional de custos reduzidos, através do estudo e análise de considerações teóricas relativas à qualidade e adequabilidade habitacional, e às diferentes variáveis que condicionam os custos de uma habitação. Tal propósito tem como resultado a proposta de um conjunto de orientações para as diferentes fases por que passa um processo de construção de uma habitação - projeto, construção e utilização. Estes contributos permitem a obtenção de uma solução que concilia os custos e qualidade da habitação, focando-se na seleção da técnica mais aplicável para o modelo de autoconstrução dirigida. Como forma de permitir uma melhor perceção das orientações propostas é apresentada a sua aplicabilidade ao contexto de Angola. Pela discussão dos resultados considera-se que é viável atingir o objetivo de construir habitações a custos reduzidos com observância de parâmetros de qualidade e sustentabilidade.
Resumo:
Devido às limitações de sistemas in vitro atuais, existe uma necessidade de modelos celulares especializados em mimetizar propriamente a biotransformação humana. Além da aplicação destes novos sistemas na avaliação e estudo de toxicidade químicos, estes sistemas permitem o uso em estudos funcionais e mecanísticos de enzimas de biotransformação humanas. Nesta dissertação é abordado o desenvolvimento de modelos celulares competentes em enzimas de biotransformação humanas, aplicado na avaliação de um dos principais metabolitos do fármaco antirretroviral Nevirapina (NVP), como também num estudo mecanístico do importante fator proteico na biotransformação humana, a NADPH citocromo P450 oxido-redutase (CPR). NVP é frequentemente usado no tratamento de HIV-1 e tem sido associado a efeitos adversos como lesões hepáticas e erupções cutâneas severas. Evidências apontam ao envolvimento de citocromos P450 e subsequente sulfonação por sulfotransferases na formação de metabolitos reativos. Contudo, testes padrão in vitro não demonstraram evidências de mutagenicidade ou clastogenicidade. Neste estudo, utilizando uma estirpe de S. typhimurium, competente na expressão controlável e estável de sulfotransferase 1A1 (SULT1A1) humana, demonstrou-se mutagenicidade de 12-hidroxi-NVP dependente de SULT1A1. A enzima CPR está envolvida nas principais reações de biotransformação de xenobióticos, além de interagir com outras proteínas importantes com funções celulares importantes. O mecanismo pelo qual CPR doa eletrões aos seus parceiros redox não é completamente claro. Foi desenvolvido um sistema de E. coli para ser aplicado em estudos mecanísticos sobre a doação de eletrões de CPR. Este novo sistema co expressa CPR e hemeoxigenase I (HO-1) humanas, que depende importantemente de CPR, sendo sustentada por sete eletrões doados por cada ciclo enzimático. As condições de cultura foram otimizadas para níveis de expressão CPR/HO-1 aproximados à estequiometria verificada em humanos. Este modelo células foi aplicado no desenvolvimento de um ensaio de cinética de HO-1, focando-se em vários parâmetros para a sua otimização.
Resumo:
A presente dissertação tem como objetivo principal a implementação de uma arquitetura baseada em algoritmos evolutivos para a sintonização dos parâmetros do controlador PID (Proporcional-Integral-Derivativo) difuso, sendo o conceito de desempenho em malha fechada explicitamente tido em conta. A sintonização dos parâmetros do controlador difuso é realizada tendo em conta um problema de otimização com restrições, em que a função de custo a ser minimizada é descrita em termos do desempenho em malha fechada, com a dinâmica do sistema a ser aproximada por um modelo não linear. Como nas metodologias de otimização existentes, a incorporação de mecanismos de adaptação referentes às funções de pertença não é comum, na presente dissertação é tido em conta, para além da usual sintonização dos fatores de escala, a sintonização dos fatores de escala e funções de pertença em simultâneo. Os resultados experimentais realizados num sistema de referência, visam demonstrar os benefícios de incorporar as funções de pertença no processo de otimização em diferido. É também utilizado um método analítico de segunda ordem como referência, por forma a comparar o desempenho de uma abordagem de otimização global contra uma de otimização local. Finalmente é implementada uma abordagem em-linha, usando o método analítico de segunda ordem, na otimização dos fatores de escala e funções de pertença.
Resumo:
A garantia de exatidão e de precisão, assim como da reprodutibilidade, da repetibilidade e da produtividade dos processos de medição, tornaram-se metas da metrologia, visando desta forma uma garantia da qualidade de produtos e serviços. A presente dissertação foi desenvolvida no âmbito de estágio curricular realizado no Departamento de Metrologia (DMET) do Instituto Português da Qualidade (IPQ). O objetivo inicial do estágio visava a participação na calibração de espectrofotómetros. Entretanto, no decorrer do estágio, também foi possível elaborar uma proposta de melhoria aos procedimentos técnicos de calibração existentes na altura, para medições de fatores de transmissão regular, com dois instrumentos de medição de elevada qualidade. Esta proposta de melhoria integra-se na busca de melhoria contínua dos processos no Laboratório de Espectrofotometria (LE), pertencente ao Laboratório Central de Metrologia (LCM) do IPQ. Visando a rastreabilidade metrológica dos resultados obtidos, foi feita a adaptação dos procedimentos existentes. Para a calibração de ambos os espectrofotómetros, utilizaram-se filtros padrão de vidro de tamanho standard (33 mm x 10 mm) e de tamanho superior ao standard (50 mm x 50 mm) certificados pelo Laboratório Primário de Espectrofotometria do Instituto Nacional de Metrologia do Reino Unido, o National Physical Laboratory (NPL). Com o objetivo de otimização de tempo, procedeu-se também à comparação entre resultados obtidos de fator de transmissão para os materiais de referência de tamanho superior, quando corrigidos de acordo com a reta de calibração obtida com filtros padrão de tamanho idêntico, e quando corrigidos de acordo com a reta de calibração obtida com filtros padrão de tamanho standard. No decurso do estágio, surgiu ainda a oportunidade de aplicar a experiência obtida ao caso prático de um filtro de opacímetro fornecido pelo LabMetro do ISQ. Assim, na presente dissertação, apresentam-se também os resultados de medição de fator de transmissão, para esse filtro, obtidos com ambos os espectrofotómetros.
Resumo:
Um dos maiores desafios da neurofisiologia é o de compreender a forma como a informação é transmitida através do sistema nervoso. O estudo do sistema nervoso tem várias aplicações, tanto na neurologia, permitindo avanços ao nível clínico, como noutras áreas, e.g., nos sistemas de processamento de informação baseados em redes neuronais. A transmissão de informação entre neurónios é feita por via de sinais elétricos. A compreensão deste fenómeno é ainda incompleta e há projectos a nível europeu e mundial com o objetivo de modular o sistema nervoso no seu todo de forma a melhor o compreender. Uma das teses que se desenvolve hoje em dia é a de que a transmissão de sinais elétricos no sistema nervoso é influenciada por fenómenos de sincronia. O objetivo desta dissertação é o de otimizar um protocolo de aquisição e análise de dados reais de eletroencefalograma e eletromiograma com o propósito de observar fenómenos de sincronia, baseando-se num algoritmo (análise por referência de fase, ou RPA, do inglês reference phase analysis) que deteta sincronias de fase entre os sinais de eletroencefalograma (EEG) e um sinal de referência, que é, no caso presente, o eletromiograma (EMG). A otimização deste protocolo e sua validação indicaram a existência de fenómenos significativos de sincronia no sinal elétrico, transmitido entre os músculos da mão e o córtex motor, no decorrer da ação motora.
Resumo:
Neste projeto pretende-se explicar qual a importância que uma política de resseguro, adotada por uma empresa de seguros, no contexto do Solvência II. O desenvolvimento dessa política pretenderá ajudar a Seguradora a escolher os parâmetros contratuais de resseguro mais favoráveis à empresa, assim como definir quantos e por quais Resseguradores deverá optar nos tratados de resseguro, procurando criar uma nova política de resseguro que tenha um impato diminuto nos riscos de subscrição e de contraparte, ao mesmo tempo que garanta um retorno adequado para Companhia. A escolha das melhores soluções de resseguro serão efetuadas tendo em conta o menor custo na sua contratação e a otimização nos requisitos de capital face à necessidade de subscrição de novos negócios. Será neste ponto que se irá abordar o efeito que o risco de subscrição terá nos requisitos de capital através da criação de cenários, que terão por base a alteração de vários parâmetros. Esta análise mais específica será efetuada pela primeira vez nesta Seguradora. Os cenários criados terão em vista vários aspetos para a Seguradora, desde a otimização do custo de resseguro ao crescimento da sua carteira face ao seu apetite ao risco, através da alteração nos seus tratados de resseguro, mais especificamente nos seus parâmetros. Estas novas alterações pretendem ter impato mais favorável na sua margem de solvência face às anteriores políticas de resseguro implementadas. Em suma, pretende-se desenvolver uma nova política de resseguro que ajude a Seguradora a otimizar os seus riscos de subscrição e de contraparte, tendo em conta as análises e conclusões identificadas por cada cenário e determinar qual será o efeito nos requisitos de capital no âmbito do Solvência II.
Resumo:
Dados atuais da Organização Mundial da Saúde (OMS) sobre a prevalência global da perda auditiva, indicam que mais de 360 milhões de pessoas no mundo sofrem de perda auditiva incapacitante. Sendo esta uma deficiência sensorial que afeta a comunicação e o inter-relacionamento das pessoas é particularmente limitante na população idosa e nos primeiros anos de vida. Atualmente a ciência e a tecnologia permitem a reabilitação auditiva de forma muito aceitável. No entanto, quando se trata de crianças com surdez congénita, a re(h)abilitação tem que ser eficaz, sendo importante avaliar a perceção auditiva (se ouve, o que ouve, como ouve). Considerando que a re(h)abilitação deve iniciar-se o mais cedo possível, é importante ter instrumentos que permitam perceber realmente não só se ouve, o que se ouve, mas também como se ouve, ajustando os equipamentos a cada caso. A presente tese apresenta um estudo onde se utilizou o Eletroencefalograma (EEG) como instrumento de avaliação do efeito das próteses auditivas, em crianças com surdez congénita adaptadas proteticamente, numa perspetiva de Avaliação de Tecnologia. A utilização nos casos do estudo pretendeu comparar a variação dos sinais cerebrais obtidos no EEG efetuado quando a criança com e sem as próteses auditivas foi submetida a um estímulo sonoro, dando ideia sobre a funcionalidade das mesmas. A validação do EEG neste contexto, teria o potencial de ser associado à re(h)abilitação auditiva como rotina, contribuindo para a otimização da funcionalidade das próteses auditivas desde o primeiro momento da adaptação. Esta utilização seria útil não só nas crianças mas também noutras situações, nomeadamente em indivíduos impedidos de verbalizar as suas queixas (que sofreram AVC, com atraso cognitivo, demência, entre outros). A análise e interpretação dos sinais de EEG mostrou-se inesperadamente complexa, possivelmente devido a interferências de estímulos visuais e outras fontes de distração presentes no momento em que o EEG foi realizado, levando apenas a uma análise qualitativa do resultado: Verificou-se que o EEG pode ser utilizado mesmo nas pessoas que têm próteses auditivas; o sinal de EEG apresenta variação quando a criança tem ou não as próteses auditivas colocadas; mas não foi possível correlacionar a variação do sinal de EEG com o som produzido ou a capacidade de escutar através de um algoritmo de MATLAB (ou EEGLAB), simples e reprodutível. A perspetiva da Avaliação de Tecnologia acompanhou este estudo desde o início, orientando a identificação do problema e a pesquisa bibliográfica inicial, e prosseguindo ao longo de toda a tese, levando ao aprofundamento de cada tema e subtema pensado ou relacionado com o assunto em estudo. Mais do que avaliar, esta metodologia de Avaliação de Tecnologia permitiu construir um enquadramento científico, político e de saúde sobre a surdez congénita, quando estudada nos mais novos adaptados proteticamente, resultando numa sequência de secções e subsecções teóricas que constituem o state of the art atual e completo. Foi também a Avaliação de Tecnologia que evidenciou a importância que a avaliação do efeito das próteses auditivas possa ter na re(h)abilitação auditiva, apresentando pistas que poderão ser úteis na tomada de decisão sobre o tipo de próteses, sobre a forma mais eficaz de as adequar às necessidades do défice da criança com surdez congénita, realçando a atualidade e interesse crescente que a metodologia aqui apresentada vem suscitando entre investigadores, engenheiros, profissionais de saúde e cuidadores, em todo o mundo.
Resumo:
Com o constante desenvolvimento das tecnologias para a tradução e a sua importância para o mercado de trabalho, os computadores e as ferramentas TAC tornaram-se instrumentos imprescindíveis ao tradutor. Tendo em conta a crescente preocupação com a otimização do processo de tradução, impõe-se que o tradutor construa as suas próprias fontes de consulta fiáveis, seja a partir da Web, de outros tradutores e até do seu próprio esforço de trabalho prévio. É possível adquirir memórias de tradução a partir de diversas fontes. Estas memórias têm como principal vantagem o facto de nunca se ter de traduzir o mesmo uma segunda vez, o que proporciona grande economia de tempo e também coerência a nível da terminologia e da fraseologia. Um dos métodos utilizados na construção de memórias de tradução diz respeito ao alinhamento de textos paralelos, de modo a que os conteúdos desses mesmos textos sejam integrados nas memórias. Com este relatório pretendeu-se esclarecer algumas questões relacionadas com as duas matérias que figuram no título, abordando as vantagens e desvantagens do alinhamento de documentos para a criação de memórias de tradução e as implicações do seu uso, tanto para o cliente que encomenda a tradução, como para a empresa que trata do projeto e para o próprio tradutor.
Resumo:
Existe uma consciencialização global e crescente do modo como o ser humano afeta diretamente o ambiente. É notável a preocupação exponencial com a sustentabilidade ambiental aos mais diversos níveis, preocupação esta ligada também ao setor da construção. É um dado adquirido que uma das grandes problemáticas ambientais da nossa geração é a reciclagem de pneus, estando o seu número de produção e consumo a atingir níveis elevadíssimos. Para atenuar estes níveis de poluição, e principalmente para diminuir gastos, as fábricas de recauchutagem reaproveitam grande parte de pneus usados, substituindo-lhes a parte de borracha degradada por nova A problemática é também assunto recorrente em Portugal, onde nas últimas décadas tem havido uma grande preocupação no seu tratamento por forma a evitar um elevado aumento de poluição, embora muitas fábricas de recauchutagens tenham vindo a encerrar nos últimos anos. A presente dissertação insere-se na procura de soluções para os resíduos inerentes à recauchutagem de pneus, estudando argamassas de cal hidráulica natural NHL3,5 com a adição de resíduos de borracha desta indústria. Foram realizadas argamassas com partículas de resíduo de borracha cuja dimensão é inferior a 2,36 mm. Os resíduos foram diferenciados em três tipos: resíduo “fino” (Fr), com partículas de dimensão inferior a 0,212 mm; resíduo “médio” (Mr), com partículas de dimensão entre os 0,212 mm e os 0,6 mm; e resíduo “grosso” (Cr), com partículas entre os 0,6 mm e os 2,36 mm. Com a mistura integral do resíduo, foram feitas formulações de argamassas com adição de 2,5%, 5% e 7,5% relativas à massa de areia, sendo posteriormente feitas argamassas com 5% de adição apenas de cada uma das identificadas. Os resultados obtidos mostram que as argamassas com resíduo de borracha menor resistência à tração e à compressão, mas apresentam menor módulo de elasticidade dinâmico e condutibilidade térmica, características que as podem tornar mais adequadas para alguns tipos de aplicações na construção. Particularmente a argamassa com 5% de mistura de frações granulométricas apresenta características que justificam o aprofundamento da sua caracterização, para otimização como argamassa a ser industrializada.
Resumo:
Na Zona Industrial e Logística de Sines (ZILS) estão instaladas empresas e indústrias que interferem na quantidade e qualidade da água subterrânea de aquíferos da região. Estas utilizam e libertam poluentes que, consequentemente, quando não cumpridas as normas de segurança, podem causar impactes no ambiente. A ZILS situa-se no Sistema Aquífero de Sines, na Massa de Água 032-Sines, este é constituído por dois aquíferos, um superficial detrítico livre e outro carbonatado profundo confinado. Apesar de se encontrarem separados em grande parte da sua extensão, na região sul, estes aquíferos encontram-se em conexão hidráulica. Esta ocorre a este da falha da Maria das Moitas onde, a partir da qual e até ao limite com o Paleozóico, não foi reconhecida a unidade argilosa do Miocénico, aumentado assim a vulnerabilidade do sistema e a pertinente otimização da rede de monitorização. Para a realização de um estudo mais aprofundado e avaliação dos efeitos sobre as águas subterrâneas na área de estudo, definiu-se uma metodologia de trabalho que engloba 4 etapas: (i) revisão bibliográfica; (ii) recolha de dados geológicos e hidrogeológicos dos arquivos da aicep Global Parques, S.A., SNIRH e LNEG; (iii) tratamento e análise dos dados obtidos em ArcGIS e traçado de perfis geológicos interpretativos; (iv) realização do modelo geológico e hidrogeológico e respetiva adequação da rede de monitorização. O modelo hidrogeológico concebido mostra que o escoamento no Sistema Aquífero de Sines se processa, predominantemente, de E para W a partir do limite situado no contacto por falha entre as unidades do Paleozóico e Meso-Cenozóico com orientação, quase perpendicular, à ribeira dos Moinhos. A este deste alinhamento é assinalada a presença de um aquífero fissurado sob as areias do Plio-Plistocénico localizado na Formação de Mira. O escoamento neste aquífero faz-se de NE para SW, em direção ao oceano, para a praia de S. Torpes.
Resumo:
Uma vez que o gás natural liquefeito (GNL) é transportado a uma temperatura criogénica de -162 °C e como os gasodutos recebem o gás natural (GN) à temperatura ambiente, existe neste sistema exergia que pode ser usada na produção de energia elétrica. A presente dissertação consiste na proposta, avaliação e comparação termodinâmica de diferentes ciclos para produção de energia elétrica, através do aproveitamento da exergia do GNL, aquando da sua transformação em GN, para introdução nos gasodutos. Neste trabalho, considerou-se como caso de estudo o terminal de GNL de Sines, em Portugal, que atualmente não tem implementada nenhuma solução para o aproveitamento da exergia disponível. Considerando os critérios de projeto, definidos de acordo com as características do terminal de Sines e, usando água do mar como fonte de calor, simularam-se e compararam-se os seguintes tipos de ciclos: o ciclo existente no terminal (CE), sem produção de energia; o ciclo de expansão direta do GN (CED); os ciclos tipo Rankine (CTR); os ciclos tipo Rankine com expansão direta (CTR+ED); e os ciclos tipo Rankine com apoio de energia solar (CTRS). Consideraram-se sete fluidos de trabalho (FT) diferentes: propano, etano, etileno, dióxido de carbono, R134a, R143a e propileno. As potências líquidas máximas obtidas para cada ciclo demonstram que: com o CE gastam-se cerca de 1182 kW para fazer o processamento de GNL; com o CED é possível gastar apenas 349 kW; com os CTR é possível obter uma potência líquida positiva ao processar o GNL, produzindo até 2120 kW (usando propileno como FT); com os CTR+ED é possível produzir 2174 kW (também usando propileno com FT); e com os CTRS é possível produzir até 3440 kW (valor médio anual) (usando etano como FT). Fez-se a otimização multi-objetivo dos ciclos tendo-se considerado alguns aspetos económicos. Além da maximização da potência líquida, para os CED, CTR e CTR+ED minimizou-se a área de transferência de calor total dos permutadores de calor e para os CTRS minimizou-se a área de coletores solares instalada.
Resumo:
A interação homem-máquina é muitas vezes um processo excessivamente artificial. Para o homem constitui um desafio permanente a otimização dessa interação capaz de controlar a máquina de modo mais eficiente através de uma maior simplicidade de procedimentos. Este estudo sugere uma forma facilitadora desse controlo. Neste caso, pretende-se controlar um robô por meio de tele-operação, sem contacto visual direto. Um robô incorporando uma câmara é controlado através de um smartphone, que para tal, irá exibir na sua interface a visão do robô e um painel tátil para o controlar. No que diz respeito ao controlo, foram desenvolvidos dois modos de condução, um manual e outro com a velocidade assistida, recorrendo à lei de potência 2/3. Deste modo, deseja-se mostrar que o modo de condução de velocidade assistida facilita a condução ao homem. Com essa finalidade, foi implementado um sistema assente na construção de um robô e no desenvolvimento de uma aplicação Android para controlo do mesmo. Com recurso a este sistema, foi elaborada uma experiência, da qual foram recolhidos dados a fim de testar a hipótese que um robô que implementa leis biológicas no seu modo de funcionamento, facilita a interação homem-máquina.
Resumo:
RESUMO - INTRODUÇÃO A escassez de recursos e os crescentes custos em saúde conduzem à adoção de medidas que visam um melhor desempenho das organizações de saúde. O facto da despesa corrente na saúde ter aumentado nos últimos anos e até 2010 resultou, entre outras, das seguintes condicionantes: (i) aumento da esperança média de vida, pressupondo-se uma maior canalização e utilização de recursos para a prestação de cuidados de saúde à população idosa; (ii) inovação na medicina, ao nível de diagnóstico, de tratamento e de tecnologias da saúde, repercutindo-se no eventual aumento de expectativas e exigências da população em relação aos seus níveis de saúde, acessibilidade e qualidade dos cuidados de saúde. Atualmente, os gestores hospitalares deparam-se com o imperativo da utilização racional e eficiente de recursos na saúde. O presente trabalho resultou de dois fatores, designadamente: (i) a tendência crescente da despesa pública relativa à saúde e (ii) os níveis de eficiência dos hospitais do SNS. O objetivo geral consistiu em identificar o potencial de melhoria na eficiência hospitalar em relação à DMPO observada no universo do SNS, medida através de dias de internamento desnecessários. Para tal, pretendeu-se: (i) descrever e analisar a variação na demora média pré-operatória de doentes submetidos a cirurgia eletiva nos hospitais que integram o Serviço Nacional de Saúde, identificando os fatores inerentes aos doentes e de gestão que influenciam a demora média pré-operatória; (ii) estimar os dias de internamento pré-operatórios desnecessários por hospital, por Grande Categoria de Diagnóstico, por Grupo de Diagnóstico Homogéneo e por dia da semana da admissão do doente; e (iii) calcular a valorização, em termos monetários, dos dias de internamento pré-operatório desnecessários ao nível dos Grupos de Diagnósticos Homogéneos. METODOLOGIA Pretendeu-se analisar a demora média pré-operatória para o triénio 2009-2011, segundo as variáveis independentes sexo, idade, número de diagnósticos secundários, Grupo de Diagnóstico Homogéneo, hospital, dia da semana da admissão do doente, recorrendo a testes de hipóteses envolvendo até duas variáveis e ao modelo de regressão linear múltipla. Também se pretendeu estimar os dias de internamento pré-operatório desnecessários por hospital, por Grande Categoria de Diagnóstico, por Grupo de Diagnóstico Homogéneo e por dia da semana da admissão do doente. Por último, procedeu-se à valorização dos dias de internamento pré-operatório desnecessários em termos monetários. RESULTADOS Os principais resultados apontam para a relação entre as variáveis independentes consideradas e a demora média pré-operatória, sendo que o poder explicativo das mesmas em relação à demora média pré-operatória reduzido (7,3%), o que pressupõe que haja outros fatores com maior influência na demora média pré-operatória. Em termos globais a demora média pré-operatória rondou os 1,08 dias, sendo que existe margem para melhorar. CONCLUSÃO Atendendo à demora média pré-operatória, parece haver margem para incrementar a produção hospitalar com os recursos de que o Serviço Nacional de Saúde dispõe atualmente (e.g. minimizando os dias de internamento pré-operatórios desnecessários), sem prejuízo dos níveis de qualidade; os hospitais do Serviço Nacional de Saúde podem incrementar os níveis de desempenho no que respeita à eficiência, mormente em relação à demora média pré-operatória; e aparentemente, de um modo um pouco grosseiro, a valorização dos dias de internamento pré-operatório desnecessários para os Grupos de Diagnósticos Homogéneos analisados repercutiu-se em cerca de 85 milhões de €.
Resumo:
O Hospital definido como local de elevada importância devido às caraterísticas e funções que tem, tais como assegurar que consegue receber todos os utentes da sua zona de ação, trata-los com dignidade e dar-lhes as melhores condições de forma rápida e eficaz para que estes consigam recuperar das suas doenças com a maior brevidade. Destes estão dependentes vidas humanas, como tal é de todo relevante ter uma gestão adequada de toda a infra-estrutura para que a eficiência seja alta e se consiga dar mais e melhor a todos os utentes, visto já se ter notado que nem sempre estes tiram o melhor partido das suas capacidades pelas mais diversas razões. Este projeto foi realizado numa parceria com o Hospital Professor Doutor Fernando Fonseca e consistiu em escrutinar dois serviços do hospital, o de tecnologia de informação e a Tomografia Axial Computorizada de imagiologia para perceber quais as falhas destes e como é que aplicando um modelo de gestão de Tecnologia de Informação denominado COBIT adaptado se consegue melhorar os resultados obtidos e as condições dadas pelo hospital. Este estudo permite perceber o porquê e as causas de uma estrutura deste tipo não dar o rendimento esperado e quais as implicâncias disso. Através dos resultados são analisadas os maiores pontos de rutura e retiradas elações sobre as possíveis melhorias a aplicar que a nível tecnológico, de recursos humanos, financeiro e de otimização do risco e melhoramento da eficácia de recursos.