6 resultados para Compressão de dados (Computação)
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Resumo indisponível
Resumo:
Dados recentes mostram que o desmatamento da caatinga, um dos principais biomas brasileiros, está atingindo níveis alarmantes, principalmente devido a sua vulnerabilidade e forte tendência à desertificação. Entre os dez municípios brasileiros que mais desmataram a caatinga, segundo o Ministério do Meio Ambiente, quatro se encontram no Ceará. Estudos mostram que entre as principais causas do desmatamento está o uso da mata nativa para lenha e carvão, sobretudo para a queima de tijolos em olarias clandestinas. Procurando estudar a questão da aplicabilidade de construções sustentáveis no Nordeste Brasileiro, o presente trabalho faz um levantamento detalhado sobre construções em terra crua (adobe) na região, em especial no Estado que mais contribuiu com o desmatamento. Em assim sendo, realizou-se uma extensa pesquisa aos acervos públicos e oito expedições rodoviárias, entre 2009 e 2011, e totalizando cerca de 7.000 km rodados, às regiões norte e nordeste do Estado do Ceará. Foram coletadas amostras de terra e de adobe para ensaios nos laboratórios da Universidade Federal do Ceará (UFC) e feita ampla documentação fotográfica com aplicação de questionários em 14localidades. Foram levantados dados de vários aspectos relevantes para a pesquisa, quais sejam: composição da terra, granulometria, processos de secagem do adobe, resistência mecânica à compressão, além de aspectos ligados ao detalhamento do revestimento, traço de rebocos e detalhes de fundação. A análise dos dados coletados permitiu compreender a construção em adobe na região, no seu contexto cultural. Esta pesquisa pode ajudar na manutenção de um sistema construtivo ambiental, cultural e economicamente sustentável, através da busca por um caminho de reavaliação das possibilidades de adaptações técnicas à casa típica do semiárido cearense.
Resumo:
O objeto principal desta tese é o estudo de algoritmos de processamento e representação automáticos de dados, em particular de informação obtida por sensores montados a bordo de veículos (2D e 3D), com aplicação em contexto de sistemas de apoio à condução. O trabalho foca alguns dos problemas que, quer os sistemas de condução automática (AD), quer os sistemas avançados de apoio à condução (ADAS), enfrentam hoje em dia. O documento é composto por duas partes. A primeira descreve o projeto, construção e desenvolvimento de três protótipos robóticos, incluindo pormenores associados aos sensores montados a bordo dos robôs, algoritmos e arquitecturas de software. Estes robôs foram utilizados como plataformas de ensaios para testar e validar as técnicas propostas. Para além disso, participaram em várias competições de condução autónoma tendo obtido muito bons resultados. A segunda parte deste documento apresenta vários algoritmos empregues na geração de representações intermédias de dados sensoriais. Estes podem ser utilizados para melhorar técnicas já existentes de reconhecimento de padrões, deteção ou navegação, e por este meio contribuir para futuras aplicações no âmbito dos AD ou ADAS. Dado que os veículos autónomos contêm uma grande quantidade de sensores de diferentes naturezas, representações intermédias são particularmente adequadas, pois podem lidar com problemas relacionados com as diversas naturezas dos dados (2D, 3D, fotométrica, etc.), com o carácter assíncrono dos dados (multiplos sensores a enviar dados a diferentes frequências), ou com o alinhamento dos dados (problemas de calibração, diferentes sensores a disponibilizar diferentes medições para um mesmo objeto). Neste âmbito, são propostas novas técnicas para a computação de uma representação multi-câmara multi-modal de transformação de perspectiva inversa, para a execução de correcção de côr entre imagens de forma a obter mosaicos de qualidade, ou para a geração de uma representação de cena baseada em primitivas poligonais, capaz de lidar com grandes quantidades de dados 3D e 2D, tendo inclusivamente a capacidade de refinar a representação à medida que novos dados sensoriais são recebidos.
Resumo:
Desde a Pré-História que a escolha de materiais esteve relacionada com a Arte. Mais tarde, durante a Idade Moderna vai ganhando uma importância cada vez maior. Atingida que foi a Idade Contemporânea, nomeadamente após a Revolução Industrial e durante a Segunda Guerra Mundial, devido ao aumento do número de materiais disponíveis, é que se pode falar de uma verdadeira seleção de materiais. É também após a Revolução Industrial que se clarificam as relações entre a evolução dos materiais e os movimentos e correntes das Artes Plásticas. Neste contexto, estudaram-se as interligações entre o processo de design e as metodologias de seleção, assim como as diversas tipologias de ferramentas existentes para esse efeito. Deste estudo, consideradas as respetivas vantagens e limitações, foi possível identificar bases de dados essencialmente técnicas, ou ao invés, ferramentas para inspiração com muitas imagens e pouca informação sobre as propriedades dos materiais. Para completar este levantamento crítico sobre processos e ferramentas de seleção, inquiriram-se cinquenta e três profissionais que trabalhavam em diferentes gabinetes de design portugueses. As perguntas dirigidas aos designers portugueses versaram sobre problemas relacionados com a escolha de materiais, abrangendo o tipo de matériasprimas empregues, processos utilizados e a qualidade da informação obtida. Na sequência deste estudo, verificou-se a existência de diversas lacunas relativamente aos meios disponíveis, rotinas de seleção, qualidade da informação existente e metodologias utilizadas. Foi neste contexto que se iniciou o projeto de criação de uma nova metodologia suportada por uma ferramenta digital. Os principais aspetos inovadores são: uma melhor interligação entre a metodologia de design e o processo de seleção de materiais e a sua sincronização; a informação necessária em cada etapa e o destaque dos fatores catalisadores da seleção de materiais. Outro elemento inovador foi a conjugação de três formas deferentes de seleção de materiais numa só ferramenta (a geral, a visual e a específica) e a hipótese de aceder a diferentes graus de informação. A metodologia, no contexto dos recursos disponíveis, foi materializada sob a forma de ferramenta digital (ptmaterials.com). O protótipo foi aferido com testes de usabilidade de cariz heurístico, com a participação de dezanove utilizadores. Foram detetadas diversas falhas de interação que condicionaram a liberdade e o controlo da navegação no seio da interface. Os utilizadores também mencionaram a existência de lacunas na prevenção de erros e a ligação do sistema à lógica habitual de outras aplicações já existentes. No entanto, também constituiu um estímulo a circunstância da maioria dos designers avaliarem o sistema como eficaz, eficiente, satisfatório e confirmarem o interesse da existência dos três tipos de seleção. Posteriormente, ao analisar os restantes resultados dos testes de usabilidade, também foram evidenciadas as vantagens dos diferentes tipos de informação disponibilizada e a utilidade de uma ferramenta desta natureza para a Indústria e Economia Nacionais. Esta ferramenta é apenas um ponto de partida, existindo espaço para melhorar a proposta, apesar da concretização de uma ferramenta digital ser um trabalho de grande complexidade. Não obstante se tratar de um protótipo, esta ferramenta está adequada aos dias de hoje e é passível de evoluir no futuro, tendo também a possibilidade de vir a ser preferencialmente utilizada por outros países de língua portuguesa.
Resumo:
Neste trabalho foram produzidos nanocompósitos de AlSiC misturando alumínio puro com nano partículas de SiC com diâmetro de 45 – 55 nm, usando, de forma sequencial, a técnica da metalurgia do pó e a compactação por “ Spark Plasma Sintering”. O compósito obtido apresentava grãos com 100 nm de diâmetro, encontrandose as partículas de SiC localizadas, principalmente, nas fronteiras de grão. O nanocompósito sob a forma de provetes cilíndricos foi submetido a testes de compressão uniaxial e a testes de nanoindentação para analisar a influência das nanopartículas de SiC, da fração volúmica de ácido esteárico e do tempo de moagem, nas propriedades mecânicas do material. Para efeitos de comparação, utilizouse o comportamento mecânico do Al puro processado em condições similares e da liga de alumínio AA1050O. A tensão limite de elasticidade do nanocompósito com 1% Vol./Vol. de SiC é dez vezes superior à do AA1050. O refinamento de grão à escala nano constitui o principal mecanismo de aumento de resistência mecânica. Na realidade, o Al nanocristalino sem reforço de partículas de SiC, apresenta uma tensão limite de elasticidade sete vezes superior à da liga AA1050O. A adição de 0,5 % Vol./Vol. e de 1 % Vol./Vol. de SiC conduzem, respetivamente, ao aumento da tensão limite de elasticidade em 47 % e 50%. O aumento do tempo de moagem e a adição de ácido esteárico ao pó durante a moagem conduzem apenas a um pequeno aumento da tensão de escoamento. A dureza do material medida através de testes de nanoindentação confirmaram os dados anteriores. A estabilidade das microestruturas do alumínio puro e do nanocompósito AlSiC, foi testada através de recozimento de restauração realizado às temperaturas de 150 °C e 250 °C durante 2 horas. Aparentemente, o tratamento térmico não influenciou as propriedades mecânicas dos materiais, excepto do nanocompósito com 1 % Vol./Vol. de SiC restaurado à temperatura de 250 °C, para o qual se observou uma redução da tensão limite de elasticidade na ordem dos 13 %. No alumínio nanocristalino, a tensão de escoamento é controlada pelo efeito de HallPetch. As partículas de SiC, são segregadas pelas fronteiras do grão e não contribuem para o aumento de resistência mecânica segundo o mecanismo de Orowan. Alternativamente, as nanopartículas de SiC constituem um reforço das fronteiras do grão, impedindo o seu escorregamento e estabilizando a nanoestrutura. Deste modo, as propriedades mecânicas do alumínio nanocristalino e do nanocompósito de AlSiC poderão estar relacionadas com a facilidade ou dificuldade do escorregamento das fronteiras de grão, embora não seja apresentada prova explícita deste mecanismo à temperatura ambiente.
Resumo:
Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.