1000 resultados para Inteligência computacional
Resumo:
O presente estudo teve como principal objetivo a preparação de bionanoconjugados de Tirosinase e nanopartículas de ouro (AuNPs) com a finalidade de observar alterações positivas da atividade enzimática relativamente à enzima livre em solução, a partir da determinação dos respetivos parâmetros cinéticos. A atividade específica da tirosinase foi determinada com tirosina, L-3,4-dihidroxifenilalanina (L-DOPA) e 4-metilcatecol, tendo este último sido escolhido como substrato a utilizar no decorrer do restante trabalho experimental devido ao maior número de unidades específicas determinado para este substrato, bem como devido à menor concentração de enzima necessária para a realização dos ensaios. Os ensaios cinéticos com variação da temperatura e pH permitiram concluir que a 30 oC e a pH 6,5 a tirosinase é mais ativa. Os bionanoconjugados foram preparados incubando tirosinase de um dia para o outro com AuNPs. Três diferentes agentes de revestimento foram usados nos estudos: AuNPs sintetizadas revestidas por citrato, funcionalizadas com ácido 11-mercaptoundecanóico (MUA) e funcionalizadas com pentapéptido CALNN. Diferentes razões molares de tirosinase : AuNPs foram estudadas e, apesar da baixa reprodutibilidade dos resultados, os mais consistentes foram obtidos para a razão molar de 120. A conjugação da tirosinase com AuNPs aumentou a afinidade para o substrato e também a eficiência catalítica, em todos os bionanoconjugados, sendo que os melhores resultados foram observados para AuNPs funcionalizadas com CALNN, aumentando cerca de 48% a eficiência catalítica relativamente à tirosinase na sua forma livre em solução. As AuNPs funcionalizadas com citrato apresentaram maior consistência de resultados relativamente ao aumento da velocidade inicial da reacção. A modelação computacional da tirosinase a pH 6,5 revelou que a carga superficial da enzima é maioritariamente negativa, dificultando a adsorção na superfície das AuNPs, podendo esta ocorrer em regiões de maior carga positiva localizadas na subunidade L ou englobando regiões da subunidade H.
Resumo:
O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.
Resumo:
A presente dissertação, integra-se no projeto ‘Digitalização e Tratamento da Filmoteca Ultramarina Portuguesa’, que inclui o tratamento e digitalização de uma coleção de microfilmes em películas de 35 mm em AC. A coleção é composta por mais de meio milhão de exposições (511.397) de variadas marcas comerciais. Deste conjunto, os negativos da marca Perutz são a parte considerada em pior estado de preservação, contendo itens considerados irrecuperáveis, devido ao seu total encurvamento e enrolamento, comportamento incomum relacionado com a deterioração do AC. Portanto, este conjunto constitui o nosso objeto de estudo, prioritário a recuperar a informação contida nestes microfilmes, pois as coleções originais, em papel, estão inacessíveis e em mau estado de conservação. Devido a uma deterioração atípica, uma das etapas principais é compreender o material, tendo-se recorrido à MO, para análise da estratigrafia, à μ-FTIR e à medição da acidez com as A-D STRIPS® e dois métodos de potenciometria de pH (com a utilização de dois tipos de elétrodo, superfície plana e microelétrodo). Nos microfilmes aparentemente impossíveis de desenrolar, foram ensaiados e comparados neste estudo, diferentes tratamentos de C&R tradicionalmente aplicados nesta área, designadamente humidificação e transferência de emulsão, os quais se revelaram inadequados para as deteriorações em presença. Foi assim necessário recorrer a outras áreas afins da fotografia, para poder encontrar uma solução já testada com sucesso, a qual estaria na área do cinema, com o tratamento deshrinking que permitiu a recuperação da imagem possibilitando a sua informatização e colocação em base de dados, com o benefício inesperado de uma planificação permanente do objeto. Recorreu-se também à área da digitalização 3D e modulação computacional, mas sem resultados até a data. Assim, o tratamento deshrinking mostrou-se o mais eficaz sendo aprimorado, tendo-se passado de uma simples ação pontual e reversível de planificação para uma mais definitiva.
Resumo:
Com o presente trabalho pretende-se formular, implementar e validar duas classes de elementos finitos não-convencionais para problemas elastoestáticos e elastodinâmicos (harmónicos e transitórios) envolvendo barras solicitadas por cargas axiais. O desempenho numérico dos elementos não convencionais é estudado para uma larga gama de situações de interesse prático e comparado com o dos elementos finitos conformes de deslocamento (convencionais). A resolução de problemas transitórios envolve a integração no tempo e no espaço das equações diferenciais governativas, bem como a imposição das respetivas condições iniciais e de fronteira. A metodologia de integração no tempo adotada neste trabalho é baseada no método de Newmark. A resolução de problemas estáticos e harmónicos não carece de integração no tempo, ou a mesma é feita de forma trivial. Concluída a discretização no tempo, a segunda fase da resolução envolve a integração no espaço de cada uma das equações discretizadas, nomeadamente através do método dos elementos finitos. Para esse efeito, apresentam-se as formulações relativas aos elementos finitos convencionais, híbridos e híbridos-Trefftz. As três formulações têm como ponto de partida a forma fraca da equação diferencial de Navier, que é imposta utilizando o método de Galerkin. A principal diferença entre os elementos convencionais e não-convencionais prende-se com a maneira como são impostas as condições de fronteira de Dirichlet e as condições de compatibilidade nas fronteiras interiores. Os elementos não convencionais são implementados numa plataforma computacional desenvolvida de raiz no ambiente Matlab. A implementação é feita de maneira a permitir uma definição muito geral e flexível da estrutura e das respetivas ações, bem como das discretizações no tempo e no espaço e das bases de aproximação, que podem ser diferentes para cada elemento finito. Por fim, efetuam-se testes numéricos com o objetivo de analisar os resultados obtidos com os elementos não convencionais e de os comparar com as respetivas soluções analíticas (caso existam), ou com os resultados obtidos utilizando elementos convencionais. É especialmente focada a convergência das soluções aproximadas sob refinamentos da malha (h), no espaço e no tempo, e das funções de aproximação (p), sendo que o uso simultâneo dos dois refinamentos parece conduzir mais rapidamente a soluções próximas da solução exata. Analisam-se também problemas complexos, envolvendo propagação de ondas de choque, com o fim de se efetuar uma comparação entre os elementos convencionais, disponíveis no programa comercial SAP2000, e os elementos não convencionais fornecidos pela plataforma computacional desenvolvida neste trabalho.
Resumo:
Com a evolução dos recursos computacionais e o desenvolvimento dos modelos constitutivos disponíveis na avaliação do comportamento estrutural de elementos de betão armado, é comum recorrer-se cada vez mais a modelos numéricos que consideram a não-linearidade física e geométrica. As simulações numéricas obtidas com recurso a este tipo de modelos computacionais permitem obter um historial completo do comportamento estrutural, desde o início da aplicação do carregamento, até ao colapso total da estrutura. Contudo, verifica-se que em zonas de descontinuidade geométrica em estruturas de betão armado, a evolução do padrão de fendilhação é um fenómeno relativamente complexo, cuja simulação numérica representa um desafio considerável. O objectivo deste trabalho é o de verificar a aplicabilidade do Método dos Elementos Aplicados no estudo do desenvolvimento do padrão de fendilhação em paredes de betão armado, solicitadas por um carregamento monotónico. Foi analisado um conjunto de dez paredes, todas com uma abertura que provoca uma zona de descontinuidade geométrica e, consequentemente, um padrão de fendilhação mais complexo. Cada parede tem uma pormenorização de armadura diferente, permitindo verificar a fiabilidade do modelo computacional. Os resultados numéricos foram comparados com ensaios experimentais realizados por Bounassar Filho [8], permitindo tirar conclusões sobre as vantagens e as limitações deste método, quando aplicado ao estudo de estruturas de betão armado solicitadas por cargas monotónicas.
Resumo:
O conhecimento do comportamento das barragens de aterro é essencial para garantir o seu funcionamento adequado e para que os objetivos de utilização delineados inicialmente para o respetivo aproveitamento hidráulico possam ser cumpridos. Os fatores de maior relevância num estudo deste tipo de barragens, considerando que apenas estão sob solicitações estáticas, são as pressões de água, registadas em piezómetros, os caudais percolados e os deslocamentos superficiais, geralmente medidos em marcas de nivelamento ou em alvos colocados em peças de centragem forçada. Na presente dissertação pretende-se, com base no conhecimento dos registos dessas medições feitas anteriormente e recorrendo a modelos de inteligência artificial, predizer o valor que se obteria em próximas medições, ajudando assim a decidir qual o melhor procedimento para remediar ou tratar um problema de comportamento relacionado com as variáveis em estudo. Esta dissertação divide-se essencialmente em três partes. Primeiramente, introduzem-se os conceitos relativos à segurança de barragens de aterro, de acordo com o regulamento de segurança adotado em Portugal, dando relevo ao tipo de observação a que são submetidas. Seguidamente, introduz-se o conceito de redes neuronais artificiais e apresenta-se a base de dados, criada com o intuito de uniformizar e melhorar a organização dos valores em estudo das barragens de aterro, que têm sido acompanhadas pelo Laboratório Nacional de Engenharia Civil. Com esta pretende-se facilitar a utilização destes elementos por programas de inteligência artificial. Por último, é feito o enquadramento de um caso de estudo, uma barragem de aterro no Norte de Portugal – barragem de Valtorno-Mourão. Utilizando o Neuroph Studio, os dados relativos à observação desta barragem são aplicados numa rede neuronal artificial, Multi Layer Perceptron Backpropagation Neural Network, permitindo antever comportamentos futuros. Os resultados obtidos são discutidos e perspetivam-se trabalhos para continuar a desenvolver a investigação efetuada.
Resumo:
Esta dissertação tem o intuito de validar o código numérico OpenFoam para problemas de fenómeno de vibração induzida por desprendimento de vórtices num cilindro circular com um grau de liberdade transversal ao escoamento. Na primeira parte é simulado o escoamento em torno de um cilindro circular fixo, e na segunda parte o escoamento em torno do cilindro oscilatório. O número de Reynolds é 200 para todas as simulações e o movimento do cilindro é descrito segundo um sistema massa-mola e massa-mola-amortecedor. Para o movimento do cilindro utilizou-se o solver sixDoFRigidDisplacement e para a resolução de problemas de malha móvel o solver displacementLaplacian. O código numérico utilizado para o caso do cilindro fixo foi pimpleFoam e para o caso do cilindro oscilatório o pimpleDyMFoam. As simulações foram feitas através da resolução das equações de Navier-Stokes num domínio computacional bidimensional. Na simulação do escoamento em redor do cilindro fixo, os coeficientes de arrasto e sustentação e o número de Strouhal foram calculados e comparados com resultados da literatura. Os resultados estão próximos da realidade, no entanto observa-se que a dimensão da malha é muito importante para a precisão dos mesmos. Na simulação do escoamento em torno do cilindro oscilatório foram calculados os coeficientes de arrasto e sustentação e deslocamento do cilindro, para os sistemas massa-mola e massa-mola-amortecedor. Para os dois sistemas foi apresentada e comparada a evolução destes resultados em função da velocidade reduzida e por fim foram comparados. Observa-se que o fator de amortecimento afeta as respostas do cilindro, dependo da velocidade reduzida. Os resultados obtidos em ambos os estudos foram satisfatórios e conclui-se que o código OpenFoam é uma boa ferramenta para resolver problemas com o fenómeno de vibração induzida por vórtices.
Resumo:
Hoje em dia é relativamente consensual a importância desempenhada pelas escritas inventadas para a compreensão do princípio alfabético. Em estudos anteriores (Alves Martins & Silva, 2006 a, b) mostrámos que crianças em idade pré-escolar que participaram em programas em que lhes era pedido que confrontassem as suas escritas inventadas com escritas de um nível mais avançado mas muito próximo do seu, evoluíam nas suas escritas. O objectivo deste estudo é o de verificar se a evolução das escritas inventadas das crianças varia consoante as escritas de confronto. Os participantes foram 39 crianças de 5 anos, cujas escritas eram grafo-perceptivas (Ferreiro, 1988). As crianças foram aleatoriamente divididas em dois grupos experimentais e um grupo de controlo. A idade, letras conhecidas, nível de inteligência e consciência fonológica foram controlados. As suas escritas inventadas foram avaliadas num pré-teste e num pósteste. Entretanto, os grupos experimentais participaram num programa de escrita delineado para induzir a reestruturação das suas escritas (o grupo 1 foi confrontado com escritas silábicas com fonetização e o grupo 2 com escritas alfabéticas), enquanto as crianças do grupo de controlo fizeram desenhos. As crianças do grupo experimental 2 produziram escritas mais avançadas do que as do grupo experimental 1.
Resumo:
Uma das principais causas de mortalidade durante a gravidez está relacionada com variações na pressão arterial materna, tal como a pré-eclâmpsia. Esta dissertação surgiu da necessidade de compreender o que provoca alterações na pressão arterial, a sua relação com o fluxo e velocidade e os efeitos nas artérias uterinas. De forma a perceber os efeitos da pressão no fluxo sanguíneo, modelou-se o sistema arterial materno, desde a aorta até às artérias uterinas, numa ferramenta de desenho tridimensional. Neste modelo foi aplicado um método de cálculo utilizando uma ferramenta de dinâmica de fluídos computacional, no qual se simulou o fluxo sanguíneo. Utilizaram-se como parâmetros de entrada, na aorta ascendente, uma função de velocidade e um valor saudável de pressão arterial central, e como parâmetro de saída introduziram-se vários valores de pressão arterial periférica normal e típicos de situações patofisiológicas, tais como hipertensão e pré-eclâmpsia. Obtiveram-se diagramas de velocidade, pressão e tensão de corte ao longo de todo o modelo arterial. Em cada saída do modelo, obtiveram-se os valores de fluxo calculados automaticamente, para cada pressão de saída introduzida. Alguns dos valores de fluxo obtidos foram comparados com valores existentes na literatura, de forma a avaliar a eficácia do modelo desenhado, concluindo-se que este produzia valores próximos dos reais. Desta forma efectuaram-se várias simulações, através das quais se percebeu que aumentando a pressão nas artérias uterinas, e mantendo constante a pressão de entrada, o fluxo de saída também aumenta.
Resumo:
Recaí sob a responsabilidade da Marinha Portuguesa a gestão da Zona Económica Exclusiva de Portugal, assegurando a sua segurança da mesma face a atividades criminosas. Para auxiliar a tarefa, é utilizado o sistema Oversee, utilizado para monitorizar a posição de todas as embarcações presentes na área afeta, permitindo a rápida intervenção da Marinha Portuguesa quando e onde necessário. No entanto, o sistema necessita de transmissões periódicas constantes originadas nas embarcações para operar corretamente – casos as transmissões sejam interrompidas, deliberada ou acidentalmente, o sistema deixa de conseguir localizar embarcações, dificultando a intervenção da Marinha. A fim de colmatar esta falha, é proposto adicionar ao sistema Oversee a capacidade de prever as posições futuras de uma embarcação com base no seu trajeto até à cessação das transmissões. Tendo em conta os grandes volumes de dados gerados pelo sistema (históricos de posições), a área de Inteligência Artificial apresenta uma possível solução para este problema. Atendendo às necessidades de resposta rápida do problema abordado, o algoritmo de Geometric Semantic Genetic Programming baseado em referências de Vanneschi et al. apresenta-se como uma possível solução, tendo já produzido bons resultados em problemas semelhantes. O presente trabalho de tese pretende integrar o algoritmo de Geometric Semantic Genetic Programming desenvolvido com o sistema Oversee, a fim de lhe conceder capacidades preditivas. Adicionalmente, será realizado um processo de análise de desempenho a fim de determinar qual a ideal parametrização do algoritmo. Pretende-se com esta tese fornecer à Marinha Portuguesa uma ferramenta capaz de auxiliar o controlo da Zona Económica Exclusiva Portuguesa, permitindo a correta intervenção da Marinha em casos onde o atual sistema não conseguiria determinar a correta posição da embarcação em questão.
Resumo:
O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.
Resumo:
O objetivo deste artigo é verificar a influência da geometria urbana na intensidade de ilhas de calor noturnas com uso de uma ferramenta computacional desenvolvida como extensão de um SIG. O método deste trabalho está dividido em três principais etapas: desenvolvimento da ferramenta, calibração do modelo e simulação de cenários hipotéticos com diferentes geometrias urbanas. Um modelo simplificado que relaciona as intensidades máximas de ilha de calor urbana (ICUmáx) com a geometria urbana foi incorporado à subrotina de cálculo e, posteriormente, adaptado para fornecer resultados mais aproximados à realidade de duas cidades brasileiras, as quais serviram de base para a calibração do modelo. A comparação entre dados reais e simulados mostraram uma diferença no aumento da ICUmáx em função da relação H/W e da faixa de comprimento de rugosidade (Z0). Com a ferramenta já calibrada, foi realizada uma simulação de diferentes cenários urbanos, demonstrando que o modelo simplificado original subestima valores de ICUmáx para as configurações de cânions urbanos de Z0 < 2,0 e superestima valores de ICUmáx para as configurações de cânions urbanos de Z0 ≥ 2,0. Além disso, este estudo traz como contribuição à verificação de que cânions urbanos com maiores áreas de fachadas e com alturas de edificações mais heterogêneas resultam em ICUmáx menores em relação aos cânions mais homogêneos e com maiores áreas médias ocupadas pelas edificações, para um mesmo valor de relação H/W. Essa diferença pode ser explicada pelos diferentes efeitos na turbulência dos ventos e nas áreas sombreadas provocados pela geometria urbana.
Resumo:
Tese de Doutoramento - Programa Doutoral em Engenharia Industrial e Sistemas (PDEIS)
Resumo:
The MAP-i Doctoral Programme in Informatics, of the Universities of Minho, Aveiro and Porto
Resumo:
Tese de Doutoramento - Leaders for Technical Industries (LTI) - MIT Portugal