110 resultados para Modelos 3D


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A perceção tridimensional é uma área em crescente desenvolvimento. Não existindo uma tecnologia ideal capaz de percecionar todo o tipo de cenários, têm surgido estudos sobre a aplicabilidade de diferentes tecnologias de forma a obter modelos que melhor se aproximem da realidade. Propõe-se nesta dissertação o desenvolvimento de um sistema de baixo-custo de percepção tridimensional que seja portátil e acessível na sua aplicabilidade, de forma a ter a capacidade de percecionar tridimensionalmente espaços interiores com pouca iluminação, tais como as divisões de um edifício ou os canais de uma mina subterrânea. Utilizou-se a triangulação entre uma câmara digital, os pontos de uma linha laser e um emissor laser para a obtenção dos dados tridimensionais do cenário. Para isso, recorreu-se a metodologias de processamento digital de imagens para a construção dos modelos dos cenários. Para se obter a validação desta dissertação, realizaram-se testes do protótipo de forma a determinar as suas capacidades percecionais. Em primeiro lugar realizou-se uma bateria de testes de calibração onde, repetidamente, se estudaram isoladamente pontos do cenário para verificar a precisão do sensor. Após esta calibração, estudou-se a capacidade de transformação de uma linha laser projetada num conjunto de coordenadas. Finalmente testou-se a capacidade de perceção tridimensional por rotação do sensor, de forma a realizar a transformação de múltiplas projeções de linhas laser num conjunto de coordenadas em torno do sensor. Verificou-se: no teste de calibração, a obtenção de distâncias com erro médio relativo inferior a 1%; no teste da linha laser, a capacidade de perceção de profundidade de múltiplos pontos ao longo da mesma; no teste de rotação, a aquisição de múltiplos conjuntos de linhas de profundidade no cenário, por rotação do sensor. Os resultados dos testes de validação permitiram concluir a viabilidade de utilizar a triangulação na aquisição de conjuntos de coordenadas de espaços interiores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Engenharia de Tecidos surge da necessidade recorrente de regenerar ou recriar órgãos e tecidos danificados devido a vários tipos de trauma. A carência de funcionalidades resultante pode ser resolvida através da implantação de substitutos bio-sintéticos. O presente trabalho consiste na produção de matrizes porosas 3D baseadas em réplicas invertidas de cristais coloidais com futura aplicação em substituintes ósseos sintéticos para fraturas de não-união. O substituinte ósseo consiste numa estrutura denominada Inverse colloidal crystal (ICC), em que a sua organização singular resulta numa homogénea proliferação celular e num aumento das propriedades mecânicas, quando comparada com outros substituintes. O primeiro passo para a obtenção desta estrutura é a produção de microesferas de poliestireno, por uma técnica baseada em microfluídica. Posteriormente as microesferas são empacotadas resultando numa estrutura coesa com ligações entre microesferas vizinhas. O preenchimento dos espaços vazios entre microesferas pelo biomaterial pretendido e posterior remoção das microesferas dá origem à estrutura porosa do ICC. ICCs poliméricos (ϕCs = 1,00) e compósitos (ϕCs = 0,86 e ϕHA = 0,14; ϕCs = 0,67 e ϕHA = 0,33; ϕCs = ϕHA = 0,50) são produzidos e as suas propriedades mecânicas são testadas através de ensaios de compressão e comparadas com outros substituintes sintéticos. Para avaliação do comportamento dos materiais em contacto com meio biológico, foram realizados testes de citotoxicidade que revelaram uma viabilidade celular acima dos 80% em todos os ICCs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo tem por base um estudo enquadrado no uso de materiais/modelos de ensino da Matemática na década de 60, aquando da implementação do Movimento Matemática Moderna, em Portugal. Para atingir este objectivo definimos três questões: 1) Já havia interesse no uso destes novos métodos de ensino, e consequentemente no uso de materiais diversos que levassem a uma melhor aprendizagem por parte dos alunos, antes da década de 60? 2) De que modo os professores aplicaram e usaram estes métodos/materiais na sua prática docente? E que formação tiveram? 3) Quais os métodos e materiais que os professores utilizavam nas suas aulas? O foco central deste trabalho parte da análise de dois artigos escritos na revista Labor, o primeiro em 1952 e o segundo em 1960, pelo professor António Augusto Lopes1 sobre o uso de materiais no 1º ciclo e o Laboratório de Matemática. Toda a pesquisa deste trabalho focou-se na interpretação de material fornecido pelo professor Lopes (manuscritos, relatórios, livros e fotografias, documentos do Ministério da Educação Nacional), bem como por reflexões e comentários do próprio, registadas na forma de entrevista,2 sobre o que foi o Movimento Matemática Moderna ao nível da prática docente, com recurso a novas metodologias e materiais de ensino. O período que irá ser analisado em termos cronológicos será de 1957 a 1965, isto porque é um período experimental e de mudança. A reunião de 57 da CIEAEM em Madrid é o marco histórico que irá despoletar o interesse da Comissão e de Augusto Lopes para a aplicação dos novos materiais\modelos. Apesar de só em 1965 serem criadas as primeiras turmas piloto para aplicação das metodologias e dos novos materiais\modelos preconizadas pelo MMM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Anualmente os incêndios florestais causam prejuízos por territórios por todo o mundo. Nas últimas décadas, estudos sobre o comportamento do fogo e avanços em tecnologias SIG, deram origem a modelos matemáticos de previsão e à sua inserção em sistemas informáticos de simulação de comportamento e propagação de fogo. A utilização destes necessita da caracterização das variáveis que determinam o comportamento do fogo: variáveis topográficas, condições meteorológicas e combustível vegetal. A vegetação assume-se como a única variável que pode ser controlada através de medidas de gestão e a mais estudada por todo o mundo. A sua caracterização é geralmente efetuada através de modelos de combustível, que consiste num conjunto de propriedades quantificáveis utilizadas nos modelos de comportamento do fogo. Através da utilização do simulador FARSITE, foi efetuada a simulação de comportamento de fogo em áreas de ocorrência de incêndios florestais localizadas na região do Alentejo Central, Portugal, recorrendo a diversos conjuntos de modelos de combustível para caracterizar a vegetação. Os resultados evidenciam, no geral, um maior rigor dos modelos de combustível customizados na caracterização da vegetação da área de estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of human cell models that recapitulate hepatic functionality allows the study of metabolic pathways involved in toxicity and disease. The increased biological relevance, cost-effectiveness and high-throughput of cell models can contribute to increase the efficiency of drug development in the pharmaceutical industry. Recapitulation of liver functionality in vitro requires the development of advanced culture strategies to mimic in vivo complexity, such as 3D culture, co-cultures or biomaterials. However, complex 3D models are typically associated with poor robustness, limited scalability and compatibility with screening methods. In this work, several strategies were used to develop highly functional and reproducible spheroid-based in vitro models of human hepatocytes and HepaRG cells using stirred culture systems. In chapter 2, the isolation of human hepatocytes from resected liver tissue was implemented and a liver tissue perfusion method was optimized towards the improvement of hepatocyte isolation and aggregation efficiency, resulting in an isolation protocol compatible with 3D culture. In chapter 3, human hepatocytes were co-cultivated with mesenchymal stem cells (MSC) and the phenotype of both cell types was characterized, showing that MSC acquire a supportive stromal function and hepatocytes retain differentiated hepatic functions, stability of drug metabolism enzymes and higher viability in co-cultures. In chapter 4, a 3D alginate microencapsulation strategy for the differentiation of HepaRG cells was evaluated and compared with the standard 2D DMSO-dependent differentiation, yielding higher differentiation efficiency, comparable levels of drug metabolism activity and significantly improved biosynthetic activity. The work developed in this thesis provides novel strategies for 3D culture of human hepatic cell models, which are reproducible, scalable and compatible with screening platforms. The phenotypic and functional characterization of the in vitro systems performed contributes to the state of the art of human hepatic cell models and can be applied to the improvement of pre-clinical drug development efficiency of the process, model disease and ultimately, development of cell-based therapeutic strategies for liver failure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A produção de estruturas tridimensionais poliméricas tem sido foco de estudo por parte da Engenharia de Células e Tecidos, pelo que mimetizam melhor as condições in vivo dos tecidos. A conjugação das propriedades eléctricas com arquitectura 3D permite uma regeneração tecidual mais eficaz. Desta forma este estudo incidiu na construção de scaffolds, que conjugasse as propriedades mecânicas, eléctricas e biológicas num só suporte. O processo utilizado para produção de scaffolds baseou-se na electrofiação de soluções poliméricas de PCL (8% m/m) com incorporação de óxido de grafeno em diferentes concentrações: 0.01%, 0.1% e 0.25% (m/V). Foram avaliados os parâmetros de electrofiação que permitiram a organização tridimensional. A composição química e a morfologia das membranas foram avaliadas por FTIR-ATR e por microscopia electrónica de varrimento (MEV), respectivamente. Através de ensaios de tracção e de permeabilidade estudou-se a influência de óido de grafeno na matriz polimérica. Foram feitas experiências de redução de óxido de grafeno nas fibras electrofiadas, tanto nas membranas como das espumas, através do uso de vapores de hidrazina. Este mecanismo mostrou-se ineficaz, uma vez que afectou a sua morfologia. As espumas foram avaliadas quanto à sua bioactividade e propriedades mecânicas (ensaios de compressão). Também foram realizados testes de viabilidade celular nas membranas e de adesão celular nas espumas, de forma a avaliar o seu potencial para aplicação biomédica. Os resultados destes ensaios revelaram que óxido de grafeno não apresenta efeitos citotóxicos para o organismo e a sua presença promove a adesão celular ao scaffold.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta plataforma foi projetada como auxílio complementar ao processo de reabilitação de doentes afásicos lusófonos. Uma gama de exercícios são disponibilizados de forma a induzir diferentes estímulos (compreensão escrita e auditiva e expressão escrita) sendo a grande maioria destes realizados dentro de um ambiente virtual em três dimensões onde o utilizador (dependendo da tarefa) pode interagir com objetos presentes dentro de uma casa. A principal particularidade desta plataforma reside no facto desta estar alojada online, dispensando instalações e permitindo um acompanhamento mais próximo por parte do terapeuta da fala do progresso feito pelo paciente. A ferramenta desenvolvida está disponível para visualização e teste no endereço www.weblisling.net.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos mais graves problemas que se apresentam ao poder público em nossos dias é a manutenção da segurança pública, em especial, graças às mudanças sociais ocorridas após os anos 60 do século passado. Para fazer frente aos novos desafios, houve necessidade de uma mudança de paradigmas nos modelos de gestão policial. O policiamento era caracterizado por patrulhas dispostas de forma aleatória e de forma reativa, atendendo às ocorrências. Contudo, tal forma de atuar não respondia mais às necessidades das comunidades. Era necessário que a polícia se tornasse mais proativa, e dispusesse seus meios de uma forma mais eficiente. Paralelamente aos fenômenos anteriormente comentados, o mundo conheceu um rápido desenvolvimento das tecnologias de informação como um todo. Estes novos sistemas permitiram o desenvolvimento de uma nova capacidade de processamento de informações dos mais diversos tipos, numéricas, de texto, figuras e de localização. Este último tipo de dado, em razão de sua relevância levou a criação dos sistemas de Informação Geográficas (SIG), os quais permitiram um aprofundamento da análise espacial de fenômenos de interesse. Com o avançar das tecnologias disponíveis, foram possíveis análises cada vez mais complexas dos dados, sendo necessária a possibilidade de fusão entre dados de diversas fontes e tipos, incluindo o dado espacial. Este novo tipo de análise, unindo dados geoespaciais com diversos outros tipos de informações deu origem a uma nova modalidade de inteligência: a Geointeligência. Desta forma, tendo em vista que o crime é, por sua própria natureza, um evento espacialmente localizado, é natural que houvesse uma aproximação entre as necessidades de novos modelos de gestão policial, fundamentados principalmente em dados objetivamente analisados e na Geointeligência. Dessa aproximação surgiram diversos modelos de negócios de gestão de policiamento, dentre os quais se destacam o policiamento orientado ao problema (POP) e o policiamento orientado pela inteligência (ILP). Assim, o principal objetivo dessa dissertação é verificar como seu deu tal impacto, bem como, através de exemplos, demonstrar a aplicação prática da Geointeligência em modelos de gestão de policiamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os modelos de comportamento de solos que aplicam a teoria da mecânica dos solos dos estados críticos são uma importante base para a compreensão do comportamento dos solos e uma ferramenta que permite, de uma forma simples, ter em conta aspetos do comportamento que os mo-delos muito básicos não permitem. Neste trabalho compara-se, com recurso aos programas de cálculo geotécnico PLAXIS e CRISP, a utilização de dois modelos - um elástico-perfeitamente plástico (modelo Mohr-Coulomb) e outro baseado nos estados críticos (modelo Cam-Clay Modificado) - na determina-ção das pressões e dos impulsos de terras sobre estruturas de suporte rígidas. Comparam-se também os resultados numéricos com os obtidos com métodos analíticos. Exceto para casos mais complexos (utilizando simultaneamente solo sobreconsolidado e pa-ramento rugoso), os impulsos ativos e passivos obtidos com o modelo Cam-Clay Modificado são se-melhantes aos obtidos com o modelo Mohr-Coulomb e com os métodos analíticos, concluindo-se que o modelo avançado modela satisfatoriamente a rotura do solo. Este modelo apresenta inclusive aspetos interessantes, como o desenvolvimento, em alguns casos em que se utiliza solo sobreconsolidado, de uma resistência de pico, que se evidencia no aparecimento de um impulso de pico. No entanto, na utilização do modelo deve ter-se em atenção alguns aspetos, nomeadamente a forma como se obtém o seu parâmetro de resistência,

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem como anexo um vídeo e uma tabela excel estão disponíveis para consulta nesta Biblioteca.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na presente dissertação estudaram-se diferentes métodos de cálculo usados para a determinação da deformação (curvatura, rotação, extensão e flecha) em vigas de betão armado. Estudou-se o método de cálculo dito “exato”, método de integração numérica, e comparou-se os resultados obtidos por este método com aqueles ditos simplificados, dos quais se dá particular destaque ao método da secção determinante. Apresenta-se também uma análise comparativa de resultados experimentais obtidos em laboratório com os resultados teóricos, obtidos pela aplicação do método de integração numérica. Estudou-se igualmente a influência que certos parâmetros, como é o caso da fendilhação, fluência, retração e resistência à compressão do betão, têm na deformação de vigas de betão armado. O estudo da deformação foi efetuado considerando três tipos de secção: retangular, em T e em I. Por último o autor implementou um programa de cálculo em VBA Excel com o objetivo de quantificar os parâmetros da deformação em vigas de betão armado com secções: retangular, em T e em I, pela aplicação do método de integração numérica, de acordo com a norma EN 1992-1-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.