995 resultados para SINCRONIZAÇÃO DE CIO
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Especialização: Ressonância Magnética.
Resumo:
Existe a ideia generalizada de que a indisciplina escolar tem vindo a aumentar e, em alguns casos, a evoluir para situações de violência. Neste artigo procura-se compreender a difusão dessa ideia à luz do enquadramento só-cio-político vivido em Portugal desde o último quartil do século XX, apresenta-se o início das preocupações e das investigações portuguesas sobre o tema, numa perspectiva preventiva e pedagógica, e partilham-se alguns dados sobre investigações empíricas realizadas em S. Miguel, nos Açores. No âmbito destas, procura-se desvendar o que pensam professores e alunos acerca da indisciplina escolar e, por fim, emergente dos dados, propõe-se uma tipologia de procedimentos adoptados pelos professores para lidar com a indisciplina dos alunos.
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
Devido ao acréscimo significativo de viaturas e peões nas grandes cidades foi necessário recorrer aos mecanismos existentes para coordenar o tráfego. Nesta perspectiva surge a implementação de semáforos com o objectivo de ordenar o tráfego nas vias rodoviárias. A gestão de tráfego, tem sido sujeita a inovações tanto ao nível dos equipamentos, do software usado, gestão centralizada, monitorização das vias e na sincronização semafórica, sendo possível a criação de programas ajustados às diferentes exigências de tráfego verificadas durante as vinte e quatro horas para pontos distintos da cidade. Conceptualmente foram elaborados estudos, com o objectivo de identificar a relação entre a velocidade o fluxo e o intervalo num determinado intervalo de tempo, bem como a relação entre a velocidade e a sinistralidade. Até 1995 Portugal era um dos países com maior número de sinistros rodoviários Na sequência desta evolução foram instalados radares de controlo de velocidade no final de 2006 com o objectivo de obrigar ao cumprimento dos limites de velocidade impostos pelo código da estrada e reduzir a sinistralidade automóvel na cidade de Lisboa. Passados alguns anos sobre o investimento realizadoanteriormente, constatamos que existe a necessidade de implementar novas tecnologias na detecção das infracções, sejam estas de excesso de velocidade ou violação do semáforo vermelho (VSV), optimizar a informação disponibilizada aos automobilistas e aos peões, coordenar a interacção entre os veículos prioritários e os restantes presentes na via, dinamizar a gestão interna das contra ordenações, agilizar os procedimentos informatizar a recolha deinformação de modo a tornar os processos mais céleres.
Resumo:
OBJETIVO: Analisar efeitos do uso de pesos de pós-estratificação para corrigir vícios decorrentes da baixa cobertura de domicílios com telefone. MÉTODOS: Comparação dos resultados levantados pelo Inquérito Domiciliar com o Sistema de Vigilância de Fatores de Risco e Proteção para Doenças Crônicas por Inquérito Telefônico (Vigitel), em Rio Branco, AC, 2007, cuja cobertura era de 40% de telefonia fixa. O vício potencial do Vigitel foi expresso pela diferença entre as prevalências do Vigitel e do Inquérito Domiciliar, calculada a raiz quadrática do erro quadrático médio como medida de acurácia da estimativa. RESULTADOS: O procedimento de ponderação do Vigitel corrigiu o vício potencial nas prevalências de consumo de frutas, legumes e verduras, de carnes com gordura visível, o ser fumante, a autoavaliação do estado de saúde ruim e da morbidade referida de colesterol ou triglicéride. O procedimento adotado pelo Vigitel não reduziu o vício nas prevalências da prática de atividade física no tempo livre e de morbidade referida de asma, bronquite asmática, bronquite crônica ou enfisema. CONCLUSÕES: É necessário o uso de métodos alternativos de ponderação e a estratégia de seleção de variáveis externas para construção de pesos de pós-estratificação que minimizem o vício potencial das estimativas das variáveis decorrentes da baixa cobertura de domicílios com telefone fixo.
Resumo:
OBJETIVO: Analisar os gastos com medicamentos para o tratamento da osteoporose na pós-menopausa e os fatores associados ao gasto médio per capita . MÉTODOS: Pareamento probabilístico-determinístico a partir das bases das Autorizações de Procedimentos de Alta Complexidade com o Sistema de Informação sobre Mortalidade, resultando em coorte histórica de pacientes que utilizaram medicamentos de alto custo para o tratamento da osteoporose na pós-menopausa de 2000 a 2006. O gasto médio mensal com medicamentos foi estratificado por faixas etárias e descrito de acordo com as características demográficas, clínicas e tipo de medicamento utilizado. Foi utilizado modelo de regressão linear para avaliar o impacto de características demográficas e clínicas sobre o gasto médio mensal per capita com os medicamentos. RESULTADOS: Foram identificadas 72.265 mulheres que receberam medicamentos para o tratamento da osteoporose na pós-menopausa. O gasto médio mensal per capita no primeiro ano de tratamento foi de R$ 90,00 (dp R$ 144,49). A maioria das mulheres tinha de 60 a 69 anos de idade, iniciaram tratamento em 2000, eram residentes na região Sudeste, tinham fraturas osteoporóticas prévias e o alendronato de sódio foi o medicamento mais utilizado no início do tratamento. A maioria das pacientes permaneceu em uso do mesmo princípio ativo durante o tratamento. Foram identificados 6.429 óbitos entre as participantes. Mais de um terço das mulheres permaneceram no programa por até 12 meses. Raloxifeno e calcitonina sintética foram as alternativas com maior impacto sobre o gasto médio mensal com medicamentos, tendo como padrão de referência o alendronato de sódio. CONCLUSÕES: Dado o alto impacto do tipo de medicamento utilizado no gasto com medicação, recomenda-se estabelecer critérios para prescrição e dispensação, com prioridade para aqueles com menores custos e maior efetividade. Isso pode otimizar o processo de assistência farmacêutica e a provisão de maior número de unidades farmacêuticas à população.
Resumo:
OBJETIVO: Avaliar a associação entre a prevalência de má oclusão em crianças aos 12 anos de idade com variáveis individuais e contextuais. MÉTODOS: Foi realizado um estudo transversal analítico com dados da Pesquisa Nacional de Saúde Bucal – SBBrasil 2010. O desfecho estudado foi a má oclusão, categorizada em ausente, definida, severa e muito severa. As variáveis independentes foram classificadas em individuais e contextuais. Os dados foram analisados por meio de modelo multinível, considerando nível de 5% de significância. RESULTADOS: A prevalência de má oclusão severa e muito severa nas crianças com 12 anos de idade não diferiu entre as regiões brasileiras, mas sim entre as cidades (p < 0,001). Crianças do sexo masculino (p = 0,033), de menor renda (p = 0,051), que consultaram o dentista (p = 0,009), com menor satisfação com a boca e os dentes (p < 0,001) e com vergonha de sorrir (p < 0,001) apresentaram má oclusão de maior gravidade. As características das cidades também afetaram a gravidade da má oclusão; cidades com mais famílias com benefício social por 1.000 habitantes, com menores notas do índice de desempenho do sistema de saúde e menor renda per capita foram estatisticamente associadas com a má oclusão. CONCLUSÕES: Associações significativas entre a presença e gravidade da má oclusão foram observadas em nível individual e contextual.
Resumo:
OBJETIVO : Comparar a eficiência e a acurácia de delineamentos de amostragem com e sem sorteio intradomiciliar em inquéritos de saúde. MÉTODOS : Com base nos dados de um inquérito realizado na Baixada Santista, SP, entre 2006 e 2007, foram retiradas 1.000 amostras sob cada um dos delineamentos e, em cada amostra, foram obtidas estimativas para pessoas de 18 a 59 anos de idade e de 18 anos e mais. Sob o primeiro, foram sorteados 40 setores censitários, 12 domicílios por setor e uma pessoa por domicílio. Na análise, os dados foram ponderados pelo número de adultos residentes nos domicílios. Sob o segundo, foram sorteados 40 setores, seis domicílios por setor para o grupo de 18 a 59 anos de idade e cinco ou seis domicílios para o grupo de 18 anos e mais. Não houve sorteio dentro do domicílio. Medidas de precisão e de vício das estimativas de proporção para 11 indicadores foram calculadas nos dois conjuntos finais das amostras selecionadas para os dois tipos de delineamentos. Estes foram comparados por meio das medidas relativas: coeficiente de variação, razão vício/média, razão vício/erro padrão e erro quadrático médio relativo. O custo foi comparado considerando custo básico por pessoa, custo por domicílio e números de pessoas e domicílios. RESULTADOS : Os vícios mostraram-se desprezíveis nos dois delineamentos. A precisão foi maior para o delineamento sem sorteio e o custo foi menor. CONCLUSÕES : O delineamento sem sorteio intradomicilar mostrou-se superior em termos de eficiência e acurácia, devendo ser a opção preferencial do pesquisador. O sorteio de moradores deve ser adotado quando houver razões referentes ao objeto de estudo que possam levar à introdução de vícios nas respostas dos entrevistados no caso de vários moradores responderem ao questionário proposto.
Resumo:
OBJETIVO Elaborar e validar instrumento de avaliação da adesão ao tratamento da hipertensão arterial sistêmica, com base na teoria da resposta ao item. MÉTODOS O desenvolvimento do instrumento envolveu procedimentos teóricos, empíricos e analíticos. Os procedimentos teóricos compreenderam a definição do constructo adesão ao tratamento da hipertensão arterial sistêmica, identificação dos domínios intervenientes e a elaboração do instrumento, seguida da análise semântica e conceitual por peritos. O procedimento empírico englobou a aplicação do instrumento a 1.000 usuários com hipertensão arterial sistêmica, atendidos em um centro de referência em Fortaleza, CE, em 2012. A etapa analítica validou o instrumento por meio da análise psicométrica e dos procedimentos estatísticos. O modelo da teoria da resposta ao item usado na análise foi o da resposta gradual de Samejima. RESULTADOS Doze dos 23 itens do instrumento inicial foram calibrados e permaneceram na versão final. O coeficiente alfa (α) de Cronbach foi de 0,81. Os itens referentes ao uso da medicação quando apresenta algum sintoma e o uso de gordura apresentaram bom desempenho, pois tiveram melhor poder de discriminar os indivíduos que aderem ao tratamento. Deixar de tomar a medicação alguma vez e o consumo de carnes brancas apresentaram menor poder de discriminação. Itens referentes à realização de exercício físico e ser rotina seguir o tratamento não medicamentoso tiveram maior dificuldade de resposta. O instrumento mostrou-se mais apropriado para medir a baixa adesão ao tratamento da hipertensão arterial sistêmica do que a alta adesão. CONCLUSÕES O instrumento mostrou-se adequado para avaliar a adesão ao tratamento da hipertensão arterial sistêmica, pois consegue diferenciar os indivíduos com alta adesão daqueles com baixa adesão. Sua utilização pode facilitar a identificação e aferição do cumprimento à terapêutica prescrita, além de viabilizar o estabelecimento de metas a serem alcançadas.
Resumo:
OBJETIVO Analisar os fatores associados à persistência à hormonioterapia para câncer de mama visando à melhoria da qualidade do cuidado prestado. MÉTODOS Estudo longitudinal a partir de dados secundários. Foi analisada uma coorte de 5.861 mulheres com câncer de mama registradas em diferentes bancos de dados do Instituto Nacional de Câncer e do Sistema Único de Saúde. Todas as pacientes foram tratadas nesse hospital, que dispensa a medicação gratuitamente, e o período de seguimento foi de janeiro de 2004 a outubro de 2010. Variáveis sociodemográficas, comportamentais, clínicas, de estilos de vida e de aspectos do serviço de saúde integraram-se à análise para testar associação com a persistência ao tratamento hormonal, pelo método de Kaplan-Meier e Riscos Proporcionais de Cox. RESULTADOS A persistência geral à hormonioterapia foi de 79,0% ao final do primeiro ano e 31,0% em cinco anos de tratamento. O risco de descontinuidade à hormonioterapia mostrou-se maior entre mulheres com idade inferior a 35 anos, com estadiamento mais grave (III e IV), usuárias de álcool, que realizaram quimioterapia, e para cada hospitalização, cada exame e cada mês, entre o diagnóstico e o início do tratamento adicional. Na direção oposta, o risco de descontinuidade mostrou-se menor entre as mulheres com nível médio e superior de escolaridade, com companheiro, com história familiar de câncer, submetidas à cirurgia e que tiveram consultas com mastologista e com oncologista clínico. CONCLUSÕES Das mulheres com câncer de mama, 69,0% não persistiram ao término de cinco anos do tratamento hormonal, aumentando o risco de uma resposta clínica inadequada. Os resultados mostram aspectos do cuidado que podem conduzir a melhores respostas ao tratamento.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Ciências da Comunicação