999 resultados para detecção de estrutura de modelo
Resumo:
A análise de componentes principais é uma técnica de estatística multivariada utilizada para examinar a interdependência entre variáveis. A sua principal característica é a capacidade de reduzir dados, e tem sido usada para o desenvolvimento de instrumentos de pesquisas psiquiátricas e na classificação dos transtornos psiquiátricos. Esta técnica foi utilizada para estudar a estrutura fatorial do Questionário de Morbidade Psiquiátrica do Adulto (QMPA). O questionário foi composto de 45 questões de resposta sim/não que identificam sintomas psiquiátricos, uso de serviço e de drogas psicotrópicas. O questionário foi aplicado em 6.470 indivíduos maiores de 15 anos, em amostras representativas da população de três cidades brasileiras (Brasília, São Paulo e Porto Alegre). O estudo teve como objetivo comparar a estrutura fatorial do questionário nas três regiões urbanas brasileiras. Sete fatores foram encontrados que explicam 42,7% da variância total da amostra. O fator 1, Ansiedade/Somatização ("eigenvalue" (EV) = 3.812 e variância explicada (VE) = 10,9%); O fator 2, Irritabilidade/Depressão (EV = 2.412 e VE = 6,9%); O fator 3, Deficiência Mental (EV= 2.014 e VE = 5,8%); O fator 4, Alcoolismo (EV = 1.903 e VE = 5,4%); O fator 5, Exaltação do Humor (EV = 1.621 e VE = 4,6%); O fator 6, Transtorno de Percepção (EV = 1.599 e VE = 4,6%) e o fator 7, Tratamento (EV = 1.592 e VE = 4,5%).O QMPA apresentou estruturas fatoriais semelhantes nas três cidades. Baseados nos achados, são feitas sugestões para que algumas questões sejam modificadas e para a exclusão de outras em uma futura versão do questionário.
Resumo:
O presente relatório de estágio resulta do acompanhamento da ampliação do corpo de um edifício hospitalar, cujo inicio da construção remonta ao ano de 1925, face às normas europeias em vigor. Inicialmente e com o objectivo supra mencionado foi elaborado um Estudo Prévio com base em determinadas características do edificado existente que no entanto não se comprovaram. Face ao sucedido e em resultado do cariz da intervenção prevista foi necessário avaliar as condições de segurança estrutural do edificado existente, sendo que, na indisponibilidade da obtenção do Projecto de Estabilidade do mesmo, foi inevitável proceder à sua reconstituição geométrica, de forma a executar um modelo de análise tridimensional. Analisadas as condições de segurança estrutural do edificado existente proceder-se-ia à caracterização da estrutura de ampliação.
Resumo:
Na sequência das preocupações de ausência dos custos externos na análise de projectos rodoviários, foram realizados diversos estudos (EUNET/SASI, FISCUS, HEATCO, PETS, UNITE, GRACE, IMPACT) com vista a identificar e quantificar os impactes reais das actividades de transporte rodoviário. Nesses projectos foram apresentadas diversas metodologias para quantificação dos custos e também benefícios associados aos sistemas de transporte, nomeadamente das infra-estruturas rodoviárias. Para o efeito foram analisadas várias categorias de custo (custos da infra-estrutura, custos do congestionamento, custos da operação dos veículos, custos dos acidentes, custos do ruído, custos da poluição atmosférica, custos do aquecimento global). Nesta dissertação utilizou-se cinco modelos de determinação de custos de infra-estruturas rodoviárias que posteriormente foram calibrados ao caso português para aplicação em estudo de casos em Portugal de duas formas, avaliação de projectos de infra-estruturas rodoviárias e identificação e fixação de preços, nomeadamente associados às portagens. A avaliação de projectos de infra-estruturas rodoviárias foi realizada através da utilização de indicadores de custos totais e médios, utilizando para o efeito dois modelos: o HDM-4 – Highway Development and Management (PIARC, 2001) e o COBA – Cost Benefit Analysis (TRL, 2004) que utilizam custos totais e um modelo proposto pelo autor com base numa síntese e adaptação de submodelos desenvolvidos nos projectos europeus já referidos que utiliza custos médios. A análise associada à identificação dos custos marginais relevantes para a fixação de preços foi realizada através do modelo desenvolvido no projecto europeu, GRACE – Generalisation of Research on Accounts and Cost Estimation (ITS et al., 2008), e de um modelo proposto pelo autor. Após a adaptação e/ou construção dos modelos, estes foram aplicados ao estudo de três situações específicas em infra-estruturas rodoviárias nacionais. Referem-se intervenções na estrada nacional EN125 que liga Vila do Bispo a Vila Real de Santo António (no Algarve), na auto-estrada A7 que liga Póvoa de Varzim a Vila Pouca de Aguiar (Norte de Portugal) e na auto-estrada A9 que liga o Estádio Nacional em Oeiras a Alverca (região de Lisboa).
Resumo:
A realização deste trabalho teve como principal objectivo a aplicação dos conceitos apreendidos ao longo da Licenciatura, desenvolvendo as capacidades de análise no domínio da engenharia civil associadas ao projecto de estruturas, tendo sempre em vista que o produto final seria um projecto apto para seguir para obra e ser executado. Tendo como base as características arquitectónicas e geotécnicas, foi elaborado um projecto de um edifício com estrutura em betão armado, utilizando pré-esforço em elementos em consola e em grandes vãos. Para tal, foram aplicados conhecimentos adquiridos no âmbito do estudo do betão estrutural, da mecânica dos materiais, da engenharia sísmica, da dinâmica de estruturas e do dimensionamento de fundações. Foi utilizado o programa de cálculo automático SAP2000 para modelar todo o edifício, fazer a sua análise dinâmica e obter áreas de armaduras. Foi efectuado um vasto trabalho, quer na agregação de elementos teóricos de base para o projecto, tais como regulamentos, eurocódigos e bibliografia diversa, quer na comparação com construções similares. As hipóteses de dimensionamento que foram sendo encontradas tiveram sempre o objectivo de obter a melhor solução, traduzida na melhor relação economia/exequibilidade.
Resumo:
Por razões de segurança, tem vindo a aumentar a utilização de sistemas de videovigilância em espaços públicos. Face a acontecimentos recentes, designadamente a ocorrência de explosões, é importante detectar bagagem abandonada porque poderá ser perigosa. Surge neste contexto a motivação para este trabalho, cujo objectivo é a detecção automática de objectos abandonados num lugar de embarque e desembarque de passageiros. O sistema desenvolvido processa as imagens obtidas pelas câmaras de videovigilância. Para cada câmara, cada imagem é comparada com a respectiva imagem de fundo, determinada inicialmente, para detectar alterações no local. Após processamento para remover efeitos de sombra e pontos espúrios, a representação binária das alterações é projectada no plano do chão e fundida com as outras projecções. Através da análise da fusão das projecções, identificam-se as blobs, designação da representação de passageiros e bagagem neste domínio. A detecção de bagagem abandonada baseia-se na ideia de que isso corresponde à divisão de uma blob em duas, permanecendo uma no local onde ocorreu a bifurcação e tendo havido afastamento da outra. Usando os dados de referência do encontro Performance Evaluation of Tracking and Surveillance, realizado em 2006, discute-se o desempenho do protótipo implementado e a sua parametrização e apresentam-se aspectos de refinamento e implementação da heurística de detecção. Analisada a utilização de imagens de um sistema de videovigilância instalado com outra finalidade, constata-se a forte dependência em relação ao número e disposição das câmaras, que neste caso, se revela desadequada.
Resumo:
A produção de água para consumo de alta qualidade a partir de águas de superfície envolve a remoção de micropoluentes em associação com matéria orgânica natural (MON) residual. Actualmente os disruptores endócrinos (DE) são um tipo de micropoluentes de especial relevância e que necessitam de investigação ao nível de detecção analítica e de tecnologias de remoção. A nanofiltração (NF) apresenta-se como uma tecnologia mais adaptada à remoção de DE que podem ser de origem natural ou substâncias químicas como o IGEPAL CO-210 ou ainda provenientes da degradação destas como o 4-nonilfenol. A optimização da NF para remoção dos DE é o objectivo principal deste trabalho final de mestrado. Esta foi realizada em termos de tipos de membranas e de modos e condições de operação. Para este efeito foram realizados ensaios com soluções modelo (4-nonilfenol, 4-octilfenol e IGEPAL) e com amostras de águas de superfície, recolhida no Rio Sado, com e sem inoculação de DE. Os ensaios com as soluções modelo foram realizados em modo de recirculação total numa instalação de nanofiltração laboratorial com células planas e uma área superficial de membrana de 13,2 cm2. Os ensaios com as águas de superfície foram realizados em modo de concentração numa instalação semi-piloto, DSS Lab-unit M20, com 360 cm2 de área superficial de membrana. Os ensaios de permeação foram realizados com membranas de nanofiltração fornecidas pela FILMTEC - NF 90, NF200 e NF270 - com permeabilidades hidráulicas a variarem de 3,7 a 15,6 Kg/h/m2/bar. A quantificação dos DE foi realizada recorrendo a cromatografia líquida de alta eficiência (HPLC) precedida de uma pré-concentração, os teores em matéria orgânica natural foram quantificados recorrendo à determinação do carbono orgânico total (COT). Para as soluções modelo os solutos 4-nonilfenol, 4-octilfenol e IGEPAL são rejeitados a 100% por todas as membranas. A NF do Rio Sado com e sem inoculação de DE foram efectuadas até taxas de recuperação de 84%. Os fluxos de permeação para as membranas NF270 e NF200 diminuíram de 100 L/h/m 2 e 70 L/h/m2, respectivamente para valores finais de 20 L/h/m2. Na membrana NF90 os fluxos iniciais de 20 L/h/m 2 decresceram até um valor próximo de zero para as taxas de recuperação mais elevadas. As rejeições ao MON para as membranas NF90, NF200 e NF270 foram 94%, 82% e 78% respectivamente. As rejeições aos DE - 4-nonilfenol, 4-octilfenol e IGEPAL - foram sempre superiores a 98% em todos os ensaios.
Resumo:
Na análise forense de explosivos é comum a tarefa de análise química num cenário de pós-explosão com o objectivo de detectar/identificar resíduos do explosivo usado. A maior dificuldade desta análise está directamente relacionada com os baixos teores de resíduos de explosivos que se encontram. Assim, é necessário que os diferentes passos aos quais as amostras são sujeitas, desde a sua recolha, acondicionamento e transporte, passando pela extracção no laboratório, até serem analisadas, sejam realizados com o maior controlo possível. Todas as tarefas envolvidas em todas as etapas poderão contribuir com erros que afectarão o resultado final. Deste modo, é da maior importância elaborar um programa de controlo da qualidade para que as análises sejam efectuadas de modo correcto, reprodutível e eficaz. Este trabalho consistiu na optimização e validação do desempenho qualitativo de um método de ensaio para detecção e identificação de quinze explosivos orgânicos através de cromatografia líquida de alto desempenho com um detector de ultravioleta-visível (HPLC-UV-Vis). De seguida estabeleceu-se um programa de controlo de qualidade (CQ) para ensaios em rotina, baseado nos resultados obtidos através da validação. Por fim, foi testado o referido programa com análises a diferentes amostras reais. De acordo com os resultados obtidos, o novo método de ensaio desenvolvido demonstrou ser um método mais rápido na análise de explosivos quando comparado com o anterior método. Portanto, é possível concluir que, através de testes estatísticos, ficou provado que o método é adequado para o fim a que se destina, podendo substituir com vantagens o método anteriormente utilizado em ensaios de rotina. Contudo, este método apresenta como principal desvantagem a dificuldade em separar compostos que apresentam isómeros. Esta é uma limitação menor que poderá ser estudada em trabalhos futuros.
Resumo:
Exemplifica-se a aplicação de análise multivariada, por estratificação e com regressão logística, utilizando dados de um estudo caso-controle sobre câncer de esôfago. Oitenta e cinco casos e 292 controles foram classificados segundo sexo, idade e os hábitos de beber e de fumar. As estimativas por ponto dos odds ratios foram semelhantes, sendo as duas técnicas consideradas complementares.
Resumo:
A decisão de realizar trabalhos de manutenção ou de construção de novas linhas, depende fundamentalmente do tipo e frequência das circulações, assim como dos parâmetros de qualidade e conforto pretendidos em cada situação. Os custos de manutenção duma infra-estrutura rodoviária dependem dos meios humanos e equipamentos pesados envolvidos, assim como da coordenação e planeamento das operações a realizar, que por sua vez dependem do estado de degradação da via. Um bom planeamento de manutenção constitui por isso um vector fundamental de gestão das modernas administrações ferroviárias. Esta questão tem sido nos últimos anos bastante referida e contemplada pelo gestor da infra-estrutura nacional - a REFER, que contratou em 2005, o Consórcio Ferrovias/Monta-Egil/Visabeira para a conservação da então denominada ZOCL - Zona Operacional de Conservação de Lisboa, num total de quase 700 Km de via-férrea, tendo posteriormente contratado a conservação de outras zonas do país a consórcios que seguiram a mesma linha de orientação. O proponente faz parte do corpo técnico, que gere o contrato anteriormente referido, pelo que o presente relatório visa essencialmente traduzir a experiência adquirida em trabalhos desta natureza. O relatório apresenta por isso, do ponto de vista contratual, alguns sistemas e formas de manutenção das vias-férreas balastradas convencionais, alguns dos equipamentos pesados mais usados na realização destes trabalhos assim como a sistematização de operações encontrada pela REFER para fazer face às necessidades de conservação das suas linhas. O relatório apresenta também o sistema informático - SMIF (Sistema de Manutenção de Infra-Estruturas Rodoviárias) - desenvolvido durante o período de vigência do contrato para optimizar a realização dos trabalhos desta natureza, por forma a optimizar os meios envolvidos e a diminuir os custos de intervenção. Faz-se também uma pequena alusão ao equipamento de detecção de defeitos usado em Portugal e em alguns países da Europa.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
Os estudos epidemiológicos de doenças que acometem as crianças geralmente envolvem grande número de variáveis. As associações entre potenciais fatores de risco e doença freqüentemente são avaliadas através de modelagem estatística sem descrição das estratégias empregadas. No estudo realizado apresenta-se uma abordagem hierarquizada aplicada à avaliação de fatores de risco para diarréia grave. As variáveis foram hierarquicamente agrupadas em características socioeconômicas, ambientais, reprodutivas maternas, nutricionais e demográficas. Na análise univariada todas as variáveis associaram-se com diarréia grave. Em cada bloco selecionaram-se fatores de confusão através de um algoritmo, utilizando-se o processo retrógado de seleção, através do módulo em passos, segundo um p=0,10. Os fatores de risco foram avaliados através de regressão logística após o ajuste para fatores de confusão de cada conjunto e para aqueles hierarquicamente superiores. As variáveis incluídas no modelo permitiram identificar corretamente uma proporção elevada de casos (gamma=0,74) e todos os blocos contribuíram significativamente para a modelagem.
Resumo:
A rápida evolução dos dispositivos móveis e das tecnologias de comunicação sem fios transformou o telemóvel num poderoso dispositivo de computação móvel. A necessidade de estar sempre contactável, comum à civilização moderna, tem aumentado a dependência deste dispositivo, sendo transportado pela maioria das pessoas num ambiente urbano e assumindo um papel talvez mais importante que a própria carteira. A ubiquidade e capacidade de computação dos telemóveis aumentam o interesse no desenvolvimento de serviços móveis, além de tradicionais serviços de voz. Um telemóvel pode em breve tornar-se um elemento activo nas nossas tarefas diárias, servindo como um instrumento de pagamento e controlo de acessos, proporcionando assim novas interfaces para serviços existentes. A unificação de vários serviços num único dispositivo é um desafio que pode simplificar a nossa rotina diária e aumentar o conforto, no limite deixaremos de necessitar de dinheiro físico, cartões de crédito ou débito, chaves de residência e de veículos automóveis, ou inclusive documentos de identificação como bilhetes de identidade ou passaportes. O interesse demonstrado pelos intervenientes, desde os fabricantes de telemóveis e operadores de rede móvel até às instituições financeiras, levaram ao aparecimento de múltiplas soluções de serviços móveis. Porém estas soluções respondem geralmente a problemas específicos, apenas contemplando um fornecedor de serviços ou uma determinada operação de pagamento, como seja a compra de bilhetes ou pagamento de estacionamento. Estas soluções emergentes consistem também tipicamente em especificações fechadas e protocolos proprietários. A definição de uma arquitectura genérica, aberta interoperável e extensível é necessária para que os serviços móveis possam ser adoptados de uma forma generalizada por diferentes fornecedores de serviços e para diversos tipos de pagamento. A maior parte das soluções actuais de pagamento móvel depende de comunicações através da rede móvel, algumas utilizam o telemóvel apenas como uma interface de acesso à internet enquanto outras possibilitam o envio de um SMS (Short Message Service) para autorizar uma transacção, o que implica custos de comunicação em todas as operações de pagamento. Este custo de operação torna essas soluções inadequadas para a realização de micropagamentos e podem por isso ter uma aceitação limitada por parte dos clientes. As soluções existentes focam-se maioritariamente em pagamentos à distância, não tirando partido das características do pagamento presencial e não oferecendo por isso uma verdadeira alternativa ao modelo actual de pagamento com cartões de crédito/débito. As capacidades computacionais dos telemóveis e suporte de diversos protocolos de comunicação sem fio local não têm sido aproveitadas, vendo o telemóvel apenas como um terminal GSM (Global System for Mobile Communications) e não oferecendo serviços adicionais como seja a avaliação dinâmica de risco ou controlo de despesas. Esta dissertação propõe e valida, através de um demonstrador, uma aquitectua aberta para o pagamento e controlo de acesso baseado em dispositivos móveis, intitulada WPAC (Wireless Payment and Access Control). Para chegar à solução apresentada foram estudadas outras soluções de pagamento, desde o aparecimento dos cartões de débito até a era de pagamentos electrónicos móveis, passando pelas soluções de pagamento através da internet. As capacidades dos dispositivos móveis, designadamente os telemóveis, e tecnologias de comunicação sem fios foram também analisadas a fim de determinar o estado tecnológico actual. A arquitectura WPAC utiliza padrões de desenho utilizados pela indústria em soluções de sucesso, a utilização de padrões testados e a reutilização de soluções com provas dadas permite aumentar a confiança nesta solução, um destes exemplos é a utilização de uma infra-estrutura de chave pública para o estabelecimento de um canal de comunicação seguro. Esta especificação é uma arquitectura orientada aos serviços que utiliza os Web Services para a definição do contracto do serviço de pagamento. A viabilidade da solução na orquestração de um conjunto de tecnologias e a prova de conceito de novas abordagens é alcançada com a construção de um protótipo e a realização de testes. A arquitectura WPAC possibilita a realização de pagamentos móveis presenciais, isto é, junto do fornecedor de bens ou serviços, seguindo o modelo de pagamento com cartões de crédito/débito no que diz respeito aos intervenientes e relações entre eles. Esta especificação inclui como aspecto inovador a avaliação dinâmica de risco, que utiliza o valor do pagamento, a existência de pagamentos frequentes num período curto de tempo, e a data, hora e local do pagamento como factores de risco; solicitando ao cliente o conjunto de credenciais adequado ao risco avaliado, desde códigos pessoais a dados biométricos. É também apresentada uma alternativa ao processo normal de pagamento, que apesar de menos cómoda permite efectuar pagamentos quando não é possível estabelecer um canal de comunicação sem fios, aumentando assim a tolerância a falhas. Esta solução não implica custos de operação para o cliente na comunicação com o ponto de venda do comerciante, que é realizada através de tecnologias de comunicação local sem fios, pode ser necessária a comunicação através da rede móvel com o emissor do agente de pagamento para a actualização do agente de software ou de dados de segurança, mas essas transmissões são ocasionais. O modelo de segurança recorre a certificados para autenticação dos intervenientes e a uma infra-estrutura de chave pública para cifra e assinatura de mensagens. Os dados de segurança incluídos no agente de software móvel, para desabilitar a cópia ou corrupção da aplicação mas também para a comparação com as credenciais inseridas pelo cliente, devem igualmente ser encriptados e assinados de forma a garantir a sua confidencialidade e integridade. A arquitectura de pagamento utiliza o standard de Web Services, que é amplamente conhecido, aberto e interoperável, para definição do serviço de pagamento. Existem extensões à especificação de Web Services relativas à segurança que permitem trocar itens de segurança e definem o modo de cifra e assinatura de mensagens, possibilitando assim a sua utilização em aplicações que necessitem de segurança como é o caso de serviços de pagamento e controlo de acesso. O contracto de um Web Service define o modo de invocação dos serviços, transmissão de informação e representação de dados, sendo normalmente utilizado o protocolo SOAP que na prática não é mais que um protocolo de troca de mansagens XML (eXtensible Markup Language). O envio e recepção de mensagens XML; ou seja, a transmissão de simples sequências de caracteres, é suportado pela maioria dos protocolos de comunicação, sendo portanto uma solução abrangente que permite a adopção de diversas tecnologias de comunicação sem fios. O protótipo inclui um agente de software móvel, implementado sobre a forma de uma MIDlet, aplicação Java para dispositivos móveis, que implementa o protocolo de pagamento comunicando sobre uma ligação Bluetooth com o ponto de venda do comerciante, simulado por uma aplicação desenvolvida sobre a plataforma .NET e que por isso faz prova da heterogeneidade da solução. A comunicação entre o comerciante e o seu banco para autorização do pagamento e transferência monetária utiliza o protocolo existente para a autorização de pagamentos, com base em cartões de crédito/débito. A definição desta especificação aberta e genérica em conjunto com o forte interesse demonstrado pelos intervenientes, proporciona uma boa perspectiva em termos de adopção da solução, o que pode impulsionar a implementação de serviços móveis e dessa forma simplificar as rotinas diárias das pessoas. Soluções móveis de pagamento reduzem a necessidade de transportar vários cartões de crédito/débito na nossa carteira. A avaliação dinâmica de risco permite aumentar a segurança dos pagamentos, com a solicitação de mais credenciais ao cliente para pagamentos com um maior risco associado, sendo um ponto importante quer para os clientes quer para as instituições financeiras pois diminui o risco de fraude e aumenta a confiança no sistema. Esta solução de pagamento electrónico pode também facilitar a consulta de pagamentos efectuados e saldos, mantendo um histórico dos movimentos, o que não é possível nos cartões de crédito/débito sem uma visita a uma ATM (Automated Teller Machine) ou utilização de homebanking.
Resumo:
Objetivou-se detectar e analisar as implicações em custos e recursos humanos em odontologia de uma hipotética aplicação dos conceitos escandinavos de atenção odontológica no Brasil. Duas sociedades foram escolhidas para serem estudadas: Suécia, país da Escandinávia, e Santa Catarina, Estado da região Sul do Brasil. A análise teórica dessas implicações foi realizada a partir da determinação das necessidades de recursos humanos em odontologia, considerando-se os altos índices de doenças bucais no Estado brasileiro. Utilizou-se o programa de software "Health Through Oral Health" da Organização Mundial da Saúde-Federação Dentária Internacional (1989). Os resultados mostraram alto custo financeiro e a necessidade de se aumentar em até 85% o recurso humano disponível para atuar em saúde bucal no Estado de Santa Catarina. Concluiu-se que os princípios de alta provisão de recursos humanos e financeiros, característicos do modelo escandinavo, não serviriam para serem adotados por Santa Catarina e, extensivamente, pelo Brasil.
Resumo:
Os quebra-mares de taludes são estruturas de protecção portuária muito comuns em Portugal e em cujo projecto se assume a necessidade de obras de manutenção ou reparação durante a sua vida útil. Para a avaliação da necessidade de realização destas obras, é necessária a existência de um programa de acompanhamento da estrutura contemplando a medição de grandezas relevantes para essa avaliação. Uma destas grandezas é o volume erodido do manto protector por acção da agitação marítima, que pode determinar-se a partir de levantamentos consecutivos da envolvente dos taludes e com o qual se pode definir o dano da estrutura. Melby (1999) apresentou uma fórmula para previsão da evolução do dano em quebra-mares de taludes com base nas características da agitação neles incidente. Nesta dissertação apresentam-se os resultados do trabalho realizado com o objectivo de avaliar a aplicabilidade daquela fórmula em condições de agitação diferentes das consideradas por aquele autor. De modo a atingir esse objectivo reproduziram-se as experiências descritas por Melby (1999). Tratam-se de ensaios de longa duração em modelo Físico reduzido em que sequências de estados de agitação estacionários vão atingindo o manto protector e se mede a área erodida no final da actuação de cada estado de agitação. Uma vez que estes ensaios terminam apenas quando fica visível uma porção apreciável do filtro sob o manto protector, a sua duração é substancialmente superior à dos ensaios comuns de estabilidade e galgamentos deste tipo de estrutura. A medição da área erodida no final da actuação de cada estado de agitação foi realizada a partir da reconstrução de pares estereoscópicos de fotografias em que a refracção induzida pela interface ar-água é corrigida. Tal significa que aquelas fotografias podem ser tiradas mantendo-se a água no canal. Pretendeu-se com a utilização desta técnica de levantamento avaliar a sua operacionalidade em ensaios de longa duração, para os quais seja necessário o levantamento exaustivo de perfis.