1000 resultados para Decomposição de matriz
Resumo:
A constituição da Associação Cultural Marionetas de Lisboa em 1985 tornou-se um momento marcante na história do Teatro de Marionetas em Portugal. É feita uma resenha histórica breve introduzindo alguns dados recentemente vindos a público sobre a presença das marionetas em Portugal desde tempos remotos, nomeadamente a chamada de atenção para um documento do primeiro quartel do século XVI que sugere a possibilidade de ter existido nessa época uma espécie de Teatro de Sombras. Dedica-se algum espaço ao panorama do teatro de marionetas em Portugal no século XX, que teve ilustres representantes entre algumas elites como exemplo da marioneta urbana renascida no século XX depois do longo interregno e perseguições que se seguiram á morte do Judeu. Contudo, foi na sua matriz rural - como o exemplificam os Bonecos de Santo Aleixo e de Orada, o Pavilhão Mexicano do Manuel Rosado e o Teatro D. Roberto do António Dias entre outros, que o teatro de fantoches, como então se designava, ficou gravado no imaginário colectivo. As bruscas alterações sociais, demográficas e económicas na 2ª metade do século provocaram inexoravelmente a decadência do teatro de bonecos nas comunidades rurais desertificadas, reduzindo-o à condição de curiosidade etnográfica embora, num ou noutro caso, reconstituído mais tarde em meio urbano. É neste contexto que o aparecimento das Marionetas de Lisboa acontece. A repercussão do aparecimento desta estrutura constituiu um estímulo para florescimento de outras estruturas, por vezes seguindo o mesmo modelo organizativo, que enriqueceram o panorama nacional da Arte da Marioneta. Em conclusão, far-se-á um balanço da acção das Marionetas de Lisboa, nomeadamente no plano da divulgação e formação de públicos, não esquecendo a vertente da formação tecnológica e artística, com reflexos directos e indirectos na comunidade contribuindo para um novo olhar e novas atitudes.
Resumo:
As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação de vídeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.
Resumo:
Esta dissertação aborda uma das metodologias mais recentes na área da Manutenção e Inspecção, a RBIM. Esta metodologia centra-se no risco que uma determinada instalação ou componente representa para a Saúde, a Segurança, o Ambiente e os seus custos. Efectua-se um resumo histórico da Manutenção desde o início do século XX, resumindo-se as metodologias de manutenção mais importantes. A metodologia RBIM analisa o risco tendo em consideração a probabilidade de falha e as consequências de falha, que são combinadas numa matriz, designada matriz de risco. A probabilidade de falha (PoF) é a frequência da ocorrência de um determinado acontecimento por ano, que pode ser avaliada qualitativamente ou quantitativamente, apresentando-se um quadro com quatro abordagens de avaliação da PoF. A consequência de falha (CoF) é o resultado de um acontecimento ou ocorrência. As consequências podem afectar a Saúde, a Segurança, o Ambiente e a Economia. A CoF, para cada um dos sectores, pode ser, à imagem da PoF, avaliada qualitativamente ou qualitativamente. Uma avaliação de risco pode ser efectuada de três abordagens diferentes, qualitativa, semi-qualitativa e quantitativa, conforme o nível de precisão desejado. Independentemente do nível de precisão, uma avaliação RBIM deve seguir um procedimento estabelecido. O projecto RIMAP apresenta um procedimento onde constam a análise preliminar, recolha e validação de dados, análise de risco multicritério, decisão e plano de acção, a implementação e a avaliação da eficiência. A metodologia RBIM tem muitos dos conceitos constantes na metodologia RCM, como a FMECA e árvore de falhas. As duas fazem uso de diagramas lógicos para a identificação de falhas, e implicam a necessidade de existir uma equipa multidisciplinar para avaliação. Para se dar uma ideia mais clara da aplicação da metodologia RBIM, descreve-se uma instalação pertencente à FAP onde se aplicará uma avaliação de risco segundo o DRAFT DOC API .
Resumo:
Este trabalho aborda o comportamento mecânico de elementos curvos em materiais compósitos aquando sujeitos a forças e momentos nas extremidades. Os modos de falha mais comuns são estudados em detalhe: falha transversal na matriz devido a tensões de flexão (tensões circunferenciais), ou falha por delaminagem devido as tensões interlaminares de tracção verificadas ao longo da espessura na região curva (tensões radiais). Inicialmente, faz-se uma abordagem sobre a influência de Z-Pins na resistência interlaminar, uma abordagem sobre os efeitos de bordo, e sobre tensões interlaminares com base em teorias Layerwise de ordem superior. Salienta-se, ainda, a importância do estudo feito com o World-Wide Failure Exercise (WWFE) (Hinton et al. 2004) na comunidade científica relacionada com o tema dos materiais compósitos. O presente trabalho, é essencialmente dividido em duas partes: modelos analíticos e modelos numéricos. São estudados provetes curvos, em forma de C (semicircular), geometria analisada por Ko e Jackson (1989); e em forma de L (cantoneira de abas iguais), analisados por Sun e Kelly (1988). Começa-se por fazer uma análise teórica, através da Teoria Multicamada, ao trabalho Ko e Jackson, autores da mesma. Analisou-se também, através desta teoria, a parte em quarto de círculo da viga estudada por Sun e Kelly. Após ter a solução analítica bem compreendida, essa teoria é aplicada ao principal estudo deste trabalho, um provete semicircular, usando os empilhamentos de Sun e Kelly. É ainda estudado, e aplicado a este último, o critério de falha em três dimensões (3D) proposto por Hashin (1980). Na segunda parte, é feita uma validação numérica dos três casos anteriores, com recurso ao software comercial de elementos finitos (EF), ANSYS. Estes estudos de EF têm a diferença, relativamente aos originais, de serem em 3D, podendo assim ser retiradas todas as tensões necessárias para se aplicar o critério de falha. No final, é feita uma comparação geral entre os resultados analíticos e numéricos.
Resumo:
Em populações muito afetadas por reações tuberculínicas inespecíficas, o teste tuberculínico padronizado, via de regra, superestima a infecção tuberculosa. A bem sucedida aplicação do método de Bhattacharya (método gráfico para a decomposição de uma distribuição de freqüências em componentes normais) na análise de resultados do teste em população contaminada por infecçõcs atípicas sugeriu seu uso nos resultados obtidos cm populações vacinadas com BCG. Assim, na análise dos resultados de dois inquéritos tuberculínicos realizados na cidade de São Paulo, SP (Brasil), em 1982 (escolares vacinados entre o segundo e o sexto ano de vida), e em 1988 (escolares vacinados no primeiro ano de vida), foi possível a caracterização e quantificação da componente normal devida à infecção natural em cada uma das misturas. Na população de 1982 o diâmetro médio das reações foi de 17,40 mm com desvio padrão 3,72 mm, e a proporção de infectados foi de 7,71% contra 4,85% nos não vacinados; na população de 1988, o diâmetro médio foi 17,00 mm com desvio padrão 4,67 mm, e a proporção de infectados foi de 4,14% contra 4,48% nos não vacinados. Concluiu-se que o método permite estimar a prevalência da infecção tuberculosa em populações com alta cobertura vacinal, desde que a vacina tenha sido aplicada no primeiro ano de vida.
Resumo:
Este artigo descreve e analisa o impacto da definição e implementação de um novo modelo de gestão dos estabelecimentos de ensino não superior (Dec-lei nº115_A/98) nos padrões de cidadania e equidade do ensino público Português. A institucionalização deste modelo representa uma mudança na matriz centralista e burocrática do referido ensino público e sugere uma aproximação às concepções neo-gerencialistas e neo-liberais que, desde meados dos anos 80, têm dominado a agenda política de muitos países desenvolvidos e de alguns organismos internacionais. Os resultados da pesquisa sugerem que a implementação do novo modelo de gestão contribuiu para reforçar os padrões de diferenciação social no ensino básico (1ºciclo) e, mais especificamente, para preservar as .vantagens competitivas. da classe média na escola pública Portuguesa.
Resumo:
Este Projecto consiste na Concepção de uma Unidade Industrial de Secagem de Bacalhau, no qual serão projectados túneis de secagem, e consequentemente toda a explicação da dinâmica incutida na secagem do bacalhau. Este trabalho começará com uma introdução à secagem artificial do bacalhau, onde se fará referência aos factores envolventes que directa ou indirectamente influenciam a secagem, de onde se realça, de entre outros, as condições termodinâmicas da secagem. De seguida, será feita uma abordagem clara sobre a decomposição do pescado salgado seco, no qual abordaremos a temática relativa às diferentes formas de decomposição que poderão ocorrer nos mesmos, como a muscosidade, bactérias vermelhas ou fungos. Posteriormente, e de um ponto de vista claro e pragmático, apresentar-se-á a memória descritiva do projecto propriamente dito. Neste ponto descreve-se-á todo o projecto, começando-se pelo seu objectivo, pela descrição da Unidade e pela explicação do processo tecnológico. De seguida, faremos uma breve explicação sobre o sistema de segurança do HACCP, no qual fazer-se-á referência às regras higio – sanitárias e técnico-funcionais da Unidade, passando-se depois, ao dimensionamento das câmaras frigorificas e dos túneis de secagem. Após o dimensionamento das instalações serão realizados os balanços térmicos, a partir dos quais, as instalações frigoríficas das câmaras e túneis de secagem serão dimensionadas. No âmbito dos componentes inseridos nas instalações frigoríficas da Unidade Industrial iremos proceder a uma explicação clara e sucinta dos mesmos. Na parte final, mas não menos importante, far-se-á um resumo do funcionamento das instalações das câmaras frigoríficas e túneis de secagem.
Resumo:
A acentuada diminuição da área arável per capita nas últimas décadas exige uma maior produtividade para os terrenos agrícolas. O acréscimo na produtividade é em parte conseguido pelo uso de adubos orgânicos e/ou inorgânicos. O consumo e consequente produção de adubos acompanham a tendência ditada pela necessidade de maximizar a produção agrícola. Recentes normas europeias exigem um controlo de qualidade rigoroso para os adubos em geral e em particular para os que tem um elevado teor em azoto. Para o nitrato de cálcio e amónio (NCa), essencial para a cultura de cereais, os teores em azoto nítrico e amoniacal tem de ser rigorosamente controlados dado que o nitrato de amónio pode ser usado na produção de explosivos. Na indústria o controlo de qualidade do NCa é feito por técnicas de análise volumétrica morosas e dispendiosas. Com o objectivo de seleccionar uma técnica mais expedita para o controlo de qualidade do NCa, várias amostras (sólidos granulares) comercializadas em Portugal e algumas de origem nórdica foram caracterizadas por difracção de raios x, espectroscopia do infravermelho por reflectância e termogravimetria. Todas as amostras foram previamente peneiradas de forma a obter a sua distribuição granulométrica. A difracção de raios X confirmou que as amostras eram semi-cristalinas, o que era previsível em face do processo de produção. A baixa cristalinidade não permitiu o cálculo dos parâmetros da rede cristalina que indicariam, ou não, a formação do sal duplo. A espectroscopia do infravermelho permitiu a identificação das bandas correspondentes aos dois nitratos. Os resultados da termogravimetria permitiram identificar os processos de desidratação e de decomposição dos dois nitratos. Numa só análise foi possível quantificar a água de cristalização, o azoto nítrico, o azoto amoniacal e o teor em CaO das amostras. Os resultados obtidos por termogravimetria mostraram elevada coerência com os análogos obtidos pelas técnicas clássicas de análise volumétrica. O teor em água de cristalização, obtido por TG, concorda com a estequiometria prevista para o nitrato duplo de cálcio e amónia (10 moléculas de água de hidratação). As réplicas efectuadas mostraram excelente reprodutibilidade da análise termogravimétrica das amostras de NCa. Não obstante o investimento inicial necessário, a termogravimetria afigura-se uma solução expedita para o controlo de qualidade do NCa na indústria.
Resumo:
Nos últimos anos, o número de hortas urbanas tem vindo a sofrer um acréscimo significativo. Com o apoio das Câmaras Municipais, uma faixa de população mais carenciada cultiva diferentes espécies vegetais que posteriormente, são consumidas pelos próprios ou vendidas a terceiros. A localização destas hortas junto de vias rodoviárias de elevada intensidade de tráfego automóvel levou, porém, a uma preocupação generalizada com a qualidade destes alimentos e com o seu efeito obre a saúde pública. Este trabalho centrou-se na quantificação de metais pesados (Pb, Ni, Cr e Cd) depositados e absorvidos, em duas espécies vegetais (alface e couve-galega) e nos solos destas culturas. As amostras foram submetidas a digestão húmida em banho de areia, para degradação da matriz e os metais foram quantificados utilizando um equipamento de absorção atómica em Câmara de grafite (GFAAS). Foi realizada uma caracterização dos solos, de forma a verificar a influência de alguns parâmetros na acumulação das espécies metálicas pelos próprios solos e na sua absorção por parte das espécies vegetais em estudo. As amostras foram recolhidas junto à Auto-estrada de Cascais (A5C), Circular Regional Interna de Lisboa (CRIL), 2ª Circular (2C), Itinerário Complementar 19 (IC19), ISEL (ISELAPT), Montijo (PVGEV), Belém (BE) e Calçada de Carriche (OB). Em termos de metais pesados, verificou-se que todos os solos que apresentam maior teor em chumbo são os de Belém e 2ª Circular. Para os restantes metais, as amostras que apresentam teores mais elevados são as das vias onde se verifica uma grande acumulação de tráfego (Belém; CRIL; A5; IC19; Olival Basto). Verificou-se também que, nestes casos, os valores de pH se encontram entre 7.77 e 8.76; os valores da matéria orgânica, se situam entre 13.61% e 4.27% e a percentagem de água entre 14.97% e 7.48%. Nas amostras de alface, a que apresentou um maior teor em chumbo foi a de Olival Basto. A amostra de alface recolhida junto ao ISEL apresenta o maior teor em níquel e em cádmio. O crómio é superior nas alfaces recolhidas na horta junto à Ponte Vasco da Gama. Nas amostras de couve-galega, a que apresentou um teor mais elevado em chumbo foi a do Olival Basto, enquanto para os restantes metais, e tal como verificado para as amostras de solo, são as das hortas junto às vias de grande acumulação de tráfego as qu apresentam maiores teores. Este trabalho permitiu identificar em que casos os teores estabelecidos pela legislação Europeia eram ultrapassados, podendo a eventual ingestão das espécies vegetais em estudo provocar um efeito negativo sobre a saúde humana.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) disponibiliza desde 1994 um programa de Avaliação Externa da Qualidade para avaliação do desempenho dos laboratórios em Sífilis. Neste programa são enviadas amostras de matriz humana para o diagnóstico da sífilis, para pesquisa de anticorpos de Treponema pallidum através dos testes disponíveis nos laboratórios (testes treponémicos e/ou não treponémicos). O objetivo principal deste estudo é avaliar o desempenho dos laboratórios participantes de 2005 a 2015.
Resumo:
INTRODUÇÃO: Objetivou-se analisar as tendência recentes na assistência hospitalar no Estado do Rio de Janeiro. Os dados originam-se da prestação mensal de serviços dos subsetores, universitários e privado, credenciados ao Sistema Único de Saúde (SUS), entre janeiro de 1992 e outubro de 1995. METODOLOGIA: Foram utilizadas as informações registradas nos formulários de Autorização de Internação Hospitalar, processadas pelo Sistema de Informações Hospitalares do SUS (SIH-SUS). A análise comparativa dos três subsetores centrou-se na produção dos serviços e resultados. Tais comparações foram realizadas utilizando-se modelos estruturais de séries temporais, que se baseiam na decomposição de componentes de interesse, como tendência, sazonalidade e irregularidade. RESULTADOS: A freqüência de internações no Estado tendeu ao declínio, em decorrência especialmente da retração do subsetor público a partir de 1993. Essa redução foi seletiva no que se refere à distribuição por faixas etárias concentrando-se nos adultos e idosos. Somente o subsetor universitário aumentou gradativamente o volume de admissões. A qualidade da assistência foi avaliada por meio da abordagem de eventos-sentinelas. A ocorrência de óbitos evitáveis nas internações no Estado apresentou discreta tendência ao declínio, detectada pela sua redução no subsetor privado. Nos subsetores público e universitário, a freqüência dos óbitos evitáveis manteve-se estável. A ocorrência de óbitos maternos no Estado permaneceu alta e estável, enquanto os índices de cesárea revelaram significativo crescimento, apesar de já ter sido observado, desde o início do período, valores bastante altos. CONCLUSÕES: Há problemas sérios na qualidade da atenção hospitalar prestada pelo SUS, no Estado, os quais, a julgar pela situação apresentada nos indicadores utilizados, vêm se agravado. Embora exiba limitações, o banco de dados do SIH-SUS mostrou ser instrumento útil para o monitoramento dos serviços hospitalares.
Resumo:
OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.
Resumo:
No âmbito da presente dissertação foi elaborado um programa de cálculo automático de pórticos tridimensionais, sob acções estáticas (Portic3D). Utilizaram-se elementos tipo barra 3D constituídos por dois pontos nodais com seis graus de liberdade cada, admitindo a hipótese de comportamento elástico linear do material. Apresentam-se os fundamentos da análise matricial de estruturas e descrevem-se os principais módulos computacionais que foram elaborados (em FORTRAN 90), nomeadamente descreve-se a estrutura global do programa desenvolvido e, em particular, descreve-se a técnica de assemblagem da matriz de rigidez global e do vector global das forças a partir das matrizes de rigidez elementares e dos vectores elementares das forças nodais equivalentes às cargas de vão, respectivamente. A fiabilidade do programa desenvolvido, Portic3D, foi testada através da comparação com os resultados de um programa de cálculo estrutural de referência, o SAP2000, para o caso da análise estática de um edifício de 8 pisos (sob a acção do peso próprio, sobrecargas e forças estáticas equivalentes a uma acção sísmica). Foi elaborado ainda um manual do utilizador para facilitar a utilização do software desenvolvido e para facilitar a eventual integração das rotinas desenvolvidas em programas de cálculo estrutural com novas potencialidades.
Resumo:
Mestrado em Intervenção Socio-Organizacional na Saúde - Área de especialização: Políticas de Administração e Gestão de Serviços de Saúde.