970 resultados para Road safety algorithms
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
PURPOSE: The Genous™ stent (GS) is designed to accelerate endothelization, which is potentially useful in the pro-thrombotic environment of ST-elevation acute myocardial infarction (STEMI). We aimed to evaluate the safety and effectiveness of the GS in the first year following primary percutaneous coronary intervention (PCI) and to compare our results with the few previously published studies. METHODS AND MATERIALS: All patients admitted to a single center due to STEMI that underwent primary PCI using exclusively GS, between May 2006 and January 2012, were enrolled. The primary study endpoints were major adverse cardiac events (MACEs), defined as the composite of cardiac death, acute myocardial infarction and target vessel revascularization, at one and 12months. RESULTS: In the cohort of 109 patients (73.4% male, 59 ±12years), 24.8% were diabetic. PCI was performed in 116 lesions with angiographic success in 99.1%, using 148 GS with median diameter of 3.00mm (2.50-4.00) and median length of 15mm (9-33). Cumulative MACEs were 2.8% at one month and 6.4% at 12months. Three stent thromboses (2.8%), all subacute, and one stent restenosis (0.9%) occurred. These accounted for the four target vessel revascularizations (3.7%). At 12months, 33.9% of patients were not on dual antiplatelet therapy. CONCLUSIONS: GS was safe and effective in the first year following primary PCI in STEMI, with an apparently safer profile comparing with the previously published data. SUMMARY: We report the safety and effectiveness of the Genous™ stent (GS) in the first year following primary percutaneous coronary intervention in ST-elevation acute myocardial infarction. A comprehensive review of the few studies that have been published on this subject was included and some suggest a less safe profile of the GS. Our results and the critical review included may add information and reinforce the safety and effectiveness of the GS in ST-elevation in acute myocardial infarction.
Resumo:
AIMS: To evaluate the long-term clinical outcomes following percutaneous coronary intervention (PCI) with the Genous stent in an unselected population. METHODS: All patients admitted to a single center who underwent PCI using the GS exclusively, between May 2006 and May 2012, were enrolled, and a clinical follow-up of up to 60 months was carried out. The primary endpoint of major adverse cardiac event (MACE) rate was defined as the composite of cardiac death, acute myocardial infarction (AMI), and target lesion revascularization (TLR). RESULTS: Of the 450 patients included (75.1% male; 65.5 ± 11.7 years), 28.4% were diabetic and acute coronary syndrome was the reason for PCI in 76.4%. Angioplasty was performed in 524 lesions using 597 Genous stents, with angiographic success in 97.1%. At a median of 36 months of follow-up (range, 1-75 months), MACE, AMI, TLR, stent restenosis (SR), and stent thrombosis (ST) rates were 15.6%, 8.4%, 4.4%, 3.8%, and 2.2%, respectively. Between 12 and 24 months, the TLR, SR, and ST rates practically stabilized, up to 60 months. Bifurcation lesions were independently associated with MACE, TLR, and SR. CONCLUSION: This is the first study reporting clinical results with the Genous stent up to 60 months. The Genous stent was safe and effective in the long-term, in an unselected population.
Resumo:
Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
OBJECTIVE: Combined hyperlipidaemia is a common and highly atherogenic lipid phenotype with multiple lipoprotein abnormalities that are difficult to normalise with single-drug therapy. The ATOMIX multicentre, controlled clinical trial compared the efficacy and safety of atorvastatin and bezafibrate in patients with diet-resistant combined hyperlipidaemia. PATIENTS AND STUDY DESIGN: Following a 6-week placebo run-in period, 138 patients received atorvastatin 10mg or bezafibrate 400mg once daily in a randomised, double-blind, placebo-controlled trial. To meet predefined low-density lipoprotein-cholesterol (LDL-C) target levels, atorvastatin dosages were increased to 20mg or 40mg once daily after 8 and 16 weeks, respectively. RESULTS: After 52 weeks, atorvastatin achieved greater reductions in LDL-C than bezafibrate (percentage decrease 35 vs 5; p < 0.0001), while bezafibrate achieved greater reductions in triglyceride than atorvastatin (percentage decrease 33 vs 21; p < 0.05) and greater increases in high-density lipoprotein-cholesterol (HDL-C) [percentage increase 28 vs 17; p < 0.01 ]. Target LDL-C levels (according to global risk) were attained in 62% of atorvastatin recipients and 6% of bezafibrate recipients, and triglyceride levels <200 mg/dL were achieved in 52% and 60% of patients, respectively. In patients with normal baseline HDL-C, bezafibrate was superior to atorvastatin for raising HDL-C, while in those with baseline HDL-C <35 mg/dL, the two drugs raised HDL-C to a similar extent after adjustment for baseline values. Both drugs were well tolerated. CONCLUSION: The results show that atorvastatin has an overall better efficacy than bezafibrate in concomitantly reaching LDL-C and triglyceride target levels in combined hyperlipidaemia, thus supporting its use as monotherapy in patients with this lipid phenotype.
Resumo:
Lamivudine has been demonstrated safe and efficacious in the short term in a large cohort of children with chronic hepatitis B (CHB), but optimal duration of treatment has not been elucidated and limited data on the safety of long-term lamivudine administration have been reported. In addition, the durability of favourable therapeutic outcomes after lamivudine therapy in children has not been well characterized. The aim of this study was to examine the safety of lamivudine and the durability of clinical responses in a group of children who received up to 3 years of treatment for CHB. One hundred and fifty-one children from centres in nine countries who had previously received lamivudine in a large prospective trial were enrolled. During the first year, children had been randomized to either lamivudine or placebo treatment. Subsequently, in a separate extension study, those who remained hepatitis B e antigen (HBeAg) positive were given lamivudine for up to 2 years and those who were HBeAg negative were observed for additional 2 years. Results of these studies have been previously reported. In this study, these children were followed for 2 additional years. Data gathered from medical record review included weight, height, signs and symptoms of hepatitis, alanine aminotransferase (ALT) levels, serologic markers, hepatitis B virus (HBV) DNA levels and serious adverse events (SAEs). Other pharmacological treatments for CHB were allowed according to the practices of individual investigators and were documented. Subjects were divided into two groups for analysis, those who had achieved virological response (VR), defined as HBeAg negative and undetectable HBV DNA by the bDNA assay by the end of the extension study at 3 years, and those who had not. In those who had achieved VR by the end of the extension study, long-term durability of HBeAg seroconversion was 82% and >90% in those who had received lamivudine for 52 weeks and at least 2 years respectively. This compares to 75% for those who had achieved seroconversion after placebo. In those who had not achieved VR by the end of the extension study, an additional 11% did so by the end of the study; they had all received lamivudine in the previous trial, and none had received further treatment during the study. Eight children lost hepatitis B surface antigen during the study and all had received lamivudine at some point during the previous trials. Evaluation of safety data revealed no SAEs related to lamivudine. There was no effect of treatment on weight or height z scores. Clinically benign ALT flares (>10 times normal) were seen in 2% of children. Favourable outcomes from lamivudine treatment of CHB in children are maintained for at least several years after completion of treatment. Up to 3 years of lamivudine treatment is safe in children.
Resumo:
Dissertação para a obtenção de grau de doutor em Ciências da Engenharia e Tecnologia
Resumo:
Proceedings IGLC-19, July 2011, Lima, Perú
Resumo:
Leadership and Management in Engineering, January 2009
Resumo:
RESUMO - Com o aumento da esperança de vida e das doenças crónicas, cada vez se tem implantado mais cardioversores-desfibrilhadores (CDI) para prevenção de morte súbita. O aumento exponencial no número de implantes aumenta o número de seguimentos dos dispositivos, sobrecarregando os profissionais de saúde e comprometendo a qualidade dos serviços prestados. Segundo as recomendações internacionais, um CDI deverá ser vigiado a cada 3 meses, o que perfaz 4 consultas por ano/doente no mínimo, se não existirem episódios de “choques” ou “descompensações” clínicas, e mensalmente quando é atingido o indicador de substituição electiva do gerador. A evolução da tecnologia, de algoritmos, visualização de episódios e terapias requer recursos técnicos e humanos diferenciados e um gasto de tempo considerável no seguimento. Em países como os Estados Unidos da América, em que os doentes têm de percorrer distâncias muito grandes para aceder aos cuidados de saúde, tornou-se preemente a necessidade de um sistema de vigilância alternativo. Nesse sentido, e usando o conceito da telemedicina, foi criado o seguimento/monitorização à distância de dispositivos cardíacos. Este reduz os custos em consultas, deslocações e recursos humanos, uma vez que contempla apenas uma consulta presencial por ano. Por outro lado, aumenta a segurança do doente com a monitorização periódica e a criação de alarmes, permitindo uma assistência de qualidade e intervenção adequada imediata. Aproveitando as vantagens que este tipo de sistema de transmissão remota oferece, procedeu-se no meu serviço, à distribuição inicial de 62 comunicadores a doentes portadores de CDI´s ou com Ressincronizadores Cardíacos (TRC´s1). Apesar de ser considerada uma melhoria na qualidade dos serviços prestados, é também uma mudança importante na metodologia da consulta feita até aqui. Segundo vários autores, a avaliação da qualidade dos cuidados em saúde está intrinsecamente ligada ao grau de satisfação dos doentes com esses serviços, ou seja, à relação entre as suas expectativas e os resultados percebidos por eles, sendo considerado um importante indicador de qualidade dos serviços. Com este trabalho, pretende-se avaliar a percepção dos doentes face ao novo seguimento em termos de aceitação, satisfação, validade, segurança e confiança no novo sistema. Se este mantém os mesmos padrões de qualidade que o seguimento presencial. Trata-se de um estudo transversal com uma componente retrospectiva de avaliação da nova metodologia de consulta à distância. Para tal, foi elaborado um questionário, que foi aplicado a 40 doentes (17,5% do género feminino e 82,5% do género masculino; média de idades de 65 anos) que constituíram a amostra do estudo. Verificou-se uma média de 5 anos de tempo de implante do CDI. Dos dados obtidos, é de realçar que 70% dos inquiridos estão satisfeitos e 30% estão muito satisfeitos com esta nova metodologia de consulta e cerca 67,4% prefere a consulta à distância. Quando solicitados para comparar a qualidade do serviço prestado entre as duas consultas, 65% respondeu igual e 27,5% melhor. Todos os inquiridos responderam ter confiança e segurança com o sistema de consulta à distância. Cerca de 87,5% dos inquiridos vê-se mesmo a continuar com este tipo de consulta. Os resultados obtidos são bastante satisfatórios no que diz respeito à transição do modo como a consulta de CDI´s é feita. Reflectem também que a tecnologia não é necessariamente uma barreira no acesso aos profissionais de saúde, desde que suportada por algum contacto directo (telefone e através de uma consulta presencial por ano). 1 TRC – Terapia de Ressincronização Cardíaca
Resumo:
The frequency and description of side effects secondaiy to the subcutaneous application of SPf66 malaria vaccine and placebo are reported for each dose of application in the participants of the vaccine efficacy trial in Brazil. Side effects evaluated two hours after each application were detected in 8.0%, 30.2% and 8.8%, for the Is', and 3"' dose, respectively, in the SPf66group, and in 7.0%, 8.5% and 2.9% in the placebo group. Local reactions such as mild inflammation, nodule and pain or erythema frequently accompanied by pruritus were the most common reactions detected in both groups (3-8%, 29.1% and 8.5% in the SPf66 group and 4.0%, 7.6% and 2.5% in the placebo group). Among vaccinees, local side effects after the 2nd dose were more frequent in females. Systemic side effects were expressed mainly through general symptoms referred by the participants and were most frequent after the 1st dose in both groups (4.3% in the SPf66 group and 3-0% in the placebo group). Muscle aches and fever were refewred by few participants. No severe adverse reactions were detected for either dose of application or group.
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics
Resumo:
Vaccination of infants with conjugated Haemophilus influenzae type b (Hib) vaccines has been proven to reduce Hib meningitis by 95% and pneumoniae by 20%. The routine use of Hib vaccine is facilitated by the introduction of combination vaccines into the EPI (Expanded Plan of Immunization). The objective of this study was to compare the immunogenicity and reactogenicity of an extemporaneously mixed DTPw/Hib (diphtheria-tetanus-whole cell pertussis) combination, using the technology of two Brazilian manufacturers, against a licensed DTPw/Hib European combination in 108 infants vaccinated at 2, 4 and 6 months according to the local national schedule. The Brazilian combination was highly immunogenic with Hib seroprotection rates (anti-PRP > 0.15 mg /ml of 98% after 2 doses and 100% after 3). Also for tetanus and pertussis the new Brazilian combination was as immunogenic as the European counterpart, except the diphtheria seroprotection rates and titers were lower. There was also no clinically relevant difference in reactogenicity. If these feasibility results are confirmed, the Brazilian DTPw/Hib combination should help to boost the uptake of Hib vaccination in Brazil.