15 resultados para Conjunto solução
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.
Resumo:
A valorização de diferentes resíduos industriais provenientes dosector de tratamento/revestimento de superfícies metálicas pode ser obtida utilizando-os como matérias-primas na formulação de pigmentos cerâmicos, sintetizados pelo método cerâmico convencional. Neste trabalho avaliou-se a viabilidade de incorporar lamas geradas pelos processos de (i) anodização, ricas em alumínio, (ii) de niquelagem e cromagem de torneiras, usadas como fonte de níquel e crómio, e (iii) da decapagem química de aços de uma trefilaria, ricas em ferro, utilizadas por si só, ou em conjunto com matérias-primas comerciais, para a obtenção depigmentos cerâmicos que coram, de forma estável, diversas matrizes cerâmicas e vítreas. Esta solução assegura ainda a inertização de potenciaisespécies perigosas presentes nos resíduos, resultando produtos inócuospara a saúde pública. Procedeu-se à caracterização de cada resíduo, em termos de composição química e mineralógica, comportamento térmico, grau de toxicidade, distribuição granulométrica, teor de humidade, etc. Verificou-se a constância das características das lamas, recorrendo à análise de lotes recolhidos em momentos distintos. Os resíduos são essencialmente constituídos por hidróxidos metálicos e foram utilizados após secagem e desagregação. No entanto, a lama de anodização de alumínio sofreu um tratamento térmico suplementar a 1400ºC. O método de síntese dos pigmentos englobou as seguintes etapas: (i) doseamento; (ii) homogeneização; (iii) calcinação; (iv) lavagem e moagem.Procedeu-se à caracterização dos pigmentos, avaliando a cor por espectroscopia de reflectância difusae pelo método CIELAB e determinando as características físico-químicas relevantes. Posteriormente, testou-se o seu desempenho em produtos cerâmicos distintos (corpos e vidrados), aferindo o desempenho cromático e a estabilidade. Numa primeira fase, desenvolveram-se e caracterizaram-se tipos distintos de pigmentos: (i) com base na estrutura do corundo (ii) verde Victória deuvarovite (iii) violeta de cassiterite com crómio (iv) pigmento carmim de malaiaíte; (v)pretos e castanhos com base na estrutura da espinela. Aprofundaram-se depois os estudos do pigmento carmim de malaiaítee do pigmento preto com base na estrutura da espinela. O pigmento carmim de malaiaíte, CaSnSiO5:Cr2O3, é formulado coma lama gerada no processo de niquelagem e cromagem. Avaliou-se a influência do teor de lama na temperatura de síntese e na qualidade cromática, em comparação com um pigmento formulado com reagentes puros. O pigmento preto com estrutura de espinela de níquel, crómio e ferro, foii formulado exclusivamente a partir das lamas geradas nos processos de cromagem/niquelagem e de decapagem química do aço. Avaliaram-se as características cromáticas e o grau de inertização dos elementos tóxicospresentes, em função da estequiometria e do tratamento térmico. Estudou-se ainda um novo sistema com base na estrutura da hibonite(CaAl12O19), que permite a obtenção de pigmentos azuis e que utiliza a lama de cromagem e niquelagem. As espécies cromóforas (Ni2+ ou Co2+) assumem coordenação tetraédrica quando substituem os iões Al3+ que ocupam as posições M5 da rede da hibonite. A formação simultânea de anortite permite reduzir a temperatura de síntese.Para além do carácter inovador deste pigmento de dissolução sólida, a qualidade cromática e a sua estabilidade são interessantes. Além disso, os teores de cobalto ou níquel são reduzidosrelativamente aos utilizados em formulações comerciais de pigmentos azuis, o que se traduz em importantes vantagens económicas e ambientais.
Resumo:
O objectivo principal da presente tese consiste no desenvolvimento de estimadores robustos do variograma com boas propriedades de eficiência. O variograma é um instrumento fundamental em Geoestatística, pois modela a estrutura de dependência do processo em estudo e influencia decisivamente a predição de novas observações. Os métodos tradicionais de estimação do variograma não são robustos, ou seja, são sensíveis a pequenos desvios das hipóteses do modelo. Essa questão é importante, pois as propriedades que motivam a aplicação de tais métodos, podem não ser válidas nas vizinhanças do modelo assumido. O presente trabalho começa por conter uma revisão dos principais conceitos em Geoestatística e da estimação tradicional do variograma. De seguida, resumem-se algumas noções fundamentais sobre robustez estatística. No seguimento, apresenta-se um novo método de estimação do variograma que se designou por estimador de múltiplos variogramas. O método consiste em quatro etapas, nas quais prevalecem, alternadamente, os critérios de robustez ou de eficiência. A partir da amostra inicial, são calculadas, de forma robusta, algumas estimativas pontuais do variograma; com base nessas estimativas pontuais, são estimados os parâmetros do modelo pelo método dos mínimos quadrados; as duas fases anteriores são repetidas, criando um conjunto de múltiplas estimativas da função variograma; por fim, a estimativa final do variograma é definida pela mediana das estimativas obtidas anteriormente. Assim, é possível obter um estimador que tem boas propriedades de robustez e boa eficiência em processos Gaussianos. A investigação desenvolvida revelou que, quando se usam estimativas discretas na primeira fase da estimação do variograma, existem situações onde a identificabilidade dos parâmetros não está assegurada. Para os modelos de variograma mais comuns, foi possível estabelecer condições, pouco restritivas, que garantem a unicidade de solução na estimação do variograma. A estimação do variograma supõe sempre a estacionaridade da média do processo. Como é importante que existam procedimentos objectivos para avaliar tal condição, neste trabalho sugere-se um teste para validar essa hipótese. A estatística do teste é um estimador-MM, cuja distribuição é desconhecida nas condições de dependência assumidas. Tendo em vista a sua aproximação, apresenta-se uma versão do método bootstrap adequada ao estudo de observações dependentes de processos espaciais. Finalmente, o estimador de múltiplos variogramas é avaliado em termos da sua aplicação prática. O trabalho contém um estudo de simulação que confirma as propriedades estabelecidas. Em todos os casos analisados, o estimador de múltiplos variogramas produziu melhores resultados do que as alternativas usuais, tanto para a distribuição assumida, como para distribuições contaminadas.
Resumo:
Tal como o título indica, esta tese estuda problemas de cobertura com alcance limitado. Dado um conjunto de antenas (ou qualquer outro dispositivo sem fios capaz de receber ou transmitir sinais), o objectivo deste trabalho é calcular o alcance mínimo das antenas de modo a que estas cubram completamente um caminho entre dois pontos numa região. Um caminho que apresente estas características é um itinerário seguro. A definição de cobertura é variável e depende da aplicação a que se destina. No caso de situações críticas como o controlo de fogos ou cenários militares, a definição de cobertura recorre à utilização de mais do que uma antena para aumentar a eficácia deste tipo de vigilância. No entanto, o alcance das antenas deverá ser minimizado de modo a manter a vigilância activa o maior tempo possível. Consequentemente, esta tese está centrada na resolução deste problema de optimização e na obtenção de uma solução particular para cada caso. Embora este problema de optimização tenha sido investigado como um problema de cobertura, é possível estabelecer um paralelismo entre problemas de cobertura e problemas de iluminação e vigilância, que são habitualmente designados como problemas da Galeria de Arte. Para converter um problema de cobertura num de iluminação basta considerar um conjunto de luzes em vez de um conjunto de antenas e submetê-lo a restrições idênticas. O principal tema do conjunto de problemas da Galeria de Arte abordado nesta tese é a 1-boa iluminação. Diz-se que um objecto está 1-bem iluminado por um conjunto de luzes se o invólucro convexo destas contém o objecto, tornando assim este conceito num tipo de iluminação de qualidade. O objectivo desta parte do trabalho é então minimizar o alcance das luzes de modo a manter uma iluminação de qualidade. São também apresentadas duas variantes da 1-boa iluminação: a iluminação ortogonal e a boa !-iluminação. Esta última tem aplicações em problemas de profundidade e visualização de dados, temas que são frequentemente abordados em estatística. A resolução destes problemas usando o diagrama de Voronoi Envolvente (uma variante do diagrama de Voronoi adaptada a problemas de boa iluminação) é também proposta nesta tese.
Resumo:
O domínio científico da investigação é a Gestão da Inovação e a Gestão da Transferência de Conhecimento e de Tecnologia, tendo como tema central as relações entre empresas e agentes de inovação que fazem da Transferência de Tecnologia uma das suas actividades, pelo que se tenta caracterizar e validar uma Metodologia de análise subjectiva adequada ao estudo daqueles agentes, enquanto disseminadores de conhecimento, e as formas de maximizar a sua actuação quando tenta atender às necessidades das empresas, tais como a transferência de conhecimento e de tecnologias, ao mesmo tempo que valoriza o seu conhecimento. O trabalho proposto tem como objectivo principal contribuir para o fomento de estudos que permitam classificar as acções dos Agentes de Inovação na sua vertente de disseminador do conhecimento, requerendo assim entender as relações subjacentes aos processos de criação, transferência e difusão de conhecimento. Este contributo passa pelo estudo das formas de aplicação de mecanismos específicos na gestão das relações daqueles agentes, quando estes actuam em parceria com as empresas. Tem ainda em vista contribuir com este estudo para o desenvolvimento de ferramentas que auxiliem as políticas governamentais no que diz respeito às questões de gestão da inovação e da transferência de conhecimento e de tecnologia. Os seguintes objectivos específicos são propostos: - Evidenciar as práticas actuais que promovem a interacção nas diversas fases do processo assim como a existência de práticas transversais àqueles; - Validar uma Metodologia que, utilizando os conhecimentos anteriores, possibilite a identificação de “bottlenecks” no processo e aponte um conceito de solução para a eliminação destes bottlenecks, apontando medidas para a melhoria dos processos e recursos existentes para valorização do conhecimento gerado pela I&D e atender às necessidades das empresas, sem causar prejuízo à própria investigação e outras actividades da Instituição de I&D. Propomos uma Metodologia de análise que, além de identificar facilitadores críticos (no sentido de serem os mais importantes) para aquele cenário no que toca ao relacionamento com Empresas, também pode descrever um conceito de solução baseado na reengenharia de processos e procedimentos e introdução e utilização de novos conceitos, como os de Gestão de Informação, para aquela Instituição. Para isso procuraremos validar, baseado no conhecimento disponível e aplicação em casos reais, um conjunto de regras de boas práticas que, agrupadas nos facilitadores actuais de TT, reflictam o estado da arte na Gestão da Transferência de Tecnologia e ajudem a caracterizar as Instituições de I&D no que toca ao relacionamento com a envolvente Empresarial.
Resumo:
O desenvolvimento das soluções baseadas em telemedicina tem permitido a criação e o desenvolvimento de novas formas de prestar cuidados de saúde, aproximando prestadores de pacientes e diminuindo os tempos de espera associados, melhorando a qualidade do serviço prestado. No entanto, nem sempre a introdução de tecnologia nos processos de saúde corresponde a uma redução nas assimetrias existentes a nível nacional na prestação de cuidados. O principal objectivo deste trabalho consistiu em desenvolver um sistema que permita a criação de um mercado electrónico de teleradiologia tirando partido das soluções tecnologicamente evoluídas já existentes e da boa distribuição de equipamento a nível nacional. Neste mercado é possível maximizar a satisfação de pacientes e entidades requisitantes de exames radiológicos em relação ao serviço prestado, sem prejudicar a qualidade do serviço prestado, ao mesmo tempo que optimiza a utilização do equipamento disponibilizado. Para tal, foi verificado o actual estado da arte em termos de sistemas de telemedicina e de teleradiologia, tendo igualmente sido confirmada a percepção existente das assimetrias a nível nacional em termos de distribuição de recursos humanos no sector da saúde. Depois de verificar o actual fluxo de trabalho em termos de requisição, execução e interpretação de exames imagiológicos, procedeu-se à sua optimização e adaptação para um mercado de teleradiologia, desenhando um conjunto de requisitos associados com as principais etapas de execução dos exames, identificando os principais entraves ao seu funcionamento e propondo mecanismos originais de resolução com base em sistemas de informação. Ao nível de sistemas de informação, é apresentado um protótipo que possibilita a demonstração da implementação de alguns dos mais importantes requisitos anteriormente apresentados e o seu funcionamento, demonstrando o funcionamento prático do sistema de mercado de imagens baseado em teleradiologia. Finalmente é demonstrada a exequibilidade prática desta solução mediante a apresentação de um modelo de negócio onde se apresentam os benefícios decorrentes da implementação deste sistema e os respectivos custos associados com a implementação de uma infra-estrutura desta natureza.
Resumo:
O presente trabalho teve como principal objectivo desenvolver e avaliar o desempenho de um sistema de monitorização da corrosão no betão armado. Para tal foram construídos dois provetes de classe 20/25, e outros dois de classe 30/35. Dentro desses quatro provetes foram instalados sensores de corrosão designados por Monicorr. Para cada classe de betão utilizaram-se dois tipos diferentes de contaminação, designadas por A e B. A contaminação do tipo A é feita adicionando durante a amassadura do betão uma solução aquosa de cloreto de cálcio a 4% em massa de cimento e sujeitando esses provetes a ciclos de condensação de 50h, durante um período de 1000h. A contaminação do tipo B é feita sujeitando os outros dois provetes de classes diferentes a ciclos de 100h de nevoeiro salino a 3% em massa de água, durante um período de 2000h. Para avaliar o desempenho do sistema de monitorização Monicorr foram comparados os valores da velocidade de corrosão instantânea por LPR, a resistividade do betão e o potencial de corrosão da armadura, obtidos pelo sistema Monicorr, com os obtidos por aparelhos utilizados para o mesmo efeito em laboratório. Paralelamente, estudou-se também a variação do potencial de corrosão da armadura em função da área oxidada. Para além disso desenvolveu-se um conjunto de pseudo referências de grafite dopada com diferentes percentagens de cimento e avaliou-se a sua estabilidade relativamente ao eléctrodo de calomelanos e óxido de managanês manganês em soluções de hidróxido de cálcio saturada e de betão armado contaminado com sais cloreto. Finalmente foram ainda desenvolvidas duas tarefas, a primeira relacionada com os resultados obtidos na medição da resistividade do betão armado pelas técnicas de dois pinos e quatro pinos, e a segunda com o desenvolvimento de um método rápido de contaminação do betão armado com dióxido de enxofre. Os resultados obtidos permitem concluir que: - o sistema de monitorização Monicorr apresenta um comportamento muito semelhante aos utilizados em laboratório para medir grandezas como o potencial de corrosão da armadura, resistividade do betão e velocidade de corrosão instantânea por LPR; - a monitorização das três grandezas atrás referidas pode ser uma ferramenta importante para permitir saber qual é o desenvolvimento corrosivo de uma estrutura de betão armado; os eléctrodos de grafite dopada com cimento apresentam uma elevada estabilidade nos meios testados tendo um desempenho muito semelhante à referência de manganês óxido de manganês para os mesmos meios. Relativamente à influência da área oxidada no potencial de corrosão da armadura não foi possível tirar conclusões. Foi possível, também, concluir que existe uma clara concordância entre as medições da resistividade do betão utilizando o método dos dois pinos e o método dos quatro pinos. Finalmente pode-se concluir que a metodologia desenvolvida para contaminar provetes de betão com iões sulfato obtém bons resultados ao fim de, apenas, 48h de contaminação.
Resumo:
No âmbito dos contextos de aprendizagem de projeto em Design, nas instituições de Ensino Superior, é cada vez mais frequente a utilização de plataformas de gestão das aprendizagens on-line (LMS) no suporte às atividades curriculares à distância. Contudo estes sistemas apesar de darem um precioso contributo através da gestão de conteúdos, das funcionalidades ligadas à avaliação dos alunos e da comunicação entre pares, respondem de forma ineficiente a outras necessidades específicas de alunos e professores no desenvolvimento de unidades curriculares de Design ligadas à aprendizagem de projeto. Este fato contribuiu para que recorrêssemos às tecnologias móveis e sociais na procura de uma solução que melhor se ajuste à aplicação das novas metodologias de e-learning adaptadas a este tipo de contextos. Partindo dessa constatação desenvolvemos e testámos um modelo tecnológico que julgamos introduzir vantagens bastante significativas na definição de novas metodologias de suporte on-line a contextos de aprendizagem personalizada (PLE) em disciplinas ligadas à aprendizagem colaborativa de projeto em Design. Através do levantamento de necessidades detetadas no terreno e da análise da oferta tecnológica existente, reunimos um conjunto de requisitos que nos permitiu desenvolver o protótipo de um sistema tecnológico que fundamenta a totalidade do modelo teórico que propomos em resposta aos pressupostos equacionados no início deste relatório.
Resumo:
Graças aos desenvolvimentos na área da síntese de nanomaterais e às potentes técnicas de caracterização à nanoescala conseguimos hoje visualizar uma nanopartícula (NP) como um dispositivo de elevado potencial terapêutico. A melhoria da sua efectividade terapêutica requer no entanto o aprofundamento e sistematização de conhecimentos, ainda muito incipientes, sobre toxicidade, selectividade, efeitos colaterais e sua dependência das próprias características físico-químicas da NP em análise. O presente trabalho, elegendo como alvo de estudo uma substância considerada biocompatível e não tóxica, a hidroxiapatite (Hap), pretende dar um contributo para esta área do conhecimento. Definiram-se como metas orientadoras deste trabalho (i) estudar a síntese de nanoparticulas de Hap (Hap NP), e a modificação das características físico-químicas e morfológicas das mesmas através da manipulação das condições de síntese; (ii) estudar a funcionalização das Hap NP com nanoestruturas de ouro e com ácido fólico, para lhes conferir capacidades acrescidas de imagiologia e terapêuticas, particularmente interessantes em aplicações como o tratamento do cancro (iii) estudar a resposta celular a materiais nanométricos, com propriedades físico-químicas diversificadas. No que se refere à síntese de Hap NP, comparam-se dois métodos de síntese química distintos, a precipitação química a temperatura fisiológica (WCS) e a síntese hidrotérmica (HS), em meios aditivados com ião citrato. A síntese WCS originou partículas de tamanho nanométrico, com uma morfologia de agulha, pouco cristalinas e elevada área superficial especifica. A síntese HS à temperatura de 180ºC permitiu obter partículas de dimensões também nanométricas mas com área específica inferior, com morfologia de bastonete prismático com secção recta hexagonal e elevada cristalinidade. Com o objectivo de aprofundar o papel de algumas variáveis experimentais na definição das características finais das partículas de hidroxiapatite, designadamente o papel do ião citrato (Cit), variou-se a razão molar [Cit/Ca] da solução reagente e o tempo de síntese. Demonstrou-se que o ião citrato e outras espécies químicas resultantes da sua decomposição nas condições térmicas (180ºC) de síntese tem um papel preponderante na velocidade de nucleação e de crescimento dessas mesmas partículas e por conseguinte nas características físico-químicas das mesmas. Elevadas razões [Cit/Ca] originam partículas de dimensão micrométrica cuja morfologia é discutida no contexto do crescimento com agregação. Com o objectivo de avaliar a citotoxicidade in vitro das nanopartículas sintetizadas procedeu-se à esterilização das mesmas. O método de esterilização escolhido foi a autoclavagem a 121º C. Avaliou-se o impacto do processo de esterilização nas características das partículas, verificando-se contrariamente às partículas WCS, que as partículas HS não sofrem alterações significativas de morfologia, o que se coaduna com as condições de síntese das mesmas, que são mais severas do que as de esterilização. As partículas WCS sofrem processos de dissolução e recristalização que se reflectem em alterações significativas de morfologia. Este estudo demonstrou que a etapa de esterilização de nanopartículas para aplicações biomédicas, por autoclavagem, pode alterar substancialmente as propriedades das mesmas, sendo pois criticamente importante caracterizar os materiais após esterilização. Os estudos citotoxicológicos para dois tipos de partículas esterilizadas (HSster e WCSster) revelaram que ambas apresentam baixa toxicidade e possuem potencial para a modelação do comportamento de células osteoblásticas. Tendo em vista a funcionalização da superfície das Hap NP para multifunções de diagnóstico e terapia exploraram-se condições experimentais que viabilizassem o acoplamento de nanopartículas de ouro à superfície das nanopartículas de Hidroxiapatite (Hap-AuNP). Tirando partido da presença de grupos carboxílicos adsorvidos na superfície das nanopartículas de Hap foi possível precipitar partículas nanométricas de ouro (1,5 a 2,5 nm) na superfície das mesmas adaptando o método descrito por Turkevich. No presente trabalho as nanopartículas de Hap funcionaram assim como um template redutor do ouro iónico de solução, propiciando localmente, na superfície das próprias nanopartículas de Hap, a sua redução a ouro metálico. A nucleação do ouro é assim contextualizada pelo papel redutor das espécies químicas adsorvidas, designadamente os grupos carboxílicos derivados de grupos citratos que presidiram à síntese das próprias nanopartículas de Hap. Estudou-se também a funcionalização das Hap NP com ácido fólico (FA), uma molécula biologicamente interessante por ser de fácil reconhecimento pelos receptores existentes em células cancerígenas. Os resultados confirmaram a ligação do ácido fólico à superfície das diferentes partículas produzidas HS e Hap-AuNPs. Graças às propriedades ópticas do ouro nanométrico (efeito plasmão) avaliadas por espectroscopia vis-UV e às potencialidades de hipertermia local por conversão fototérmica, as nanoestruturas Hap-AuNPs produzidas apresentam-se com elevado interesse enquanto nanodispositivos capazes de integrar funções de quimio e terapia térmica do cancro e imagiologia. O estudo da resposta celular aos diversos materiais sintetizados no presente trabalho foi alvo de análise na tentativa de se caracterizar a toxicidade dos mesmos bem como avaliar o seu desempenho em aplicações terapêuticas. Demonstrou-se que as Hap NP não afectam a proliferação das células para concentrações até 500 g/ml, observando-se um aumento na expressão genética da BMP-2 e da fosfatase alcalina. Verificou-se também que as Hap NP são susceptíveis de internalização por células osteoblásticas MG63, apresentando uma velocidade de dissolução intracelular relativamente reduzida. A resposta celular às Hap-AuNP confirmou a não citotoxicidade destas partículas e revelou que a presença do ouro na superfície das Hap NP aumenta a taxa proliferação celular, bem como a expressão de parâmetros osteogénicos. No seu conjunto os resultados sugerem que os vários tipos de partículas sintetizadas no presente estudo apresentam também comportamentos interessantes para aplicações em engenharia de tecido ósseo.
Resumo:
Os vidros bioativos constituem um material apropriado para o preenchimento de defeitos ósseos, como alternativa a enxertos autólogos, uma vez que, quando expostos a fluidos fisiológicos promovem a formação de uma ligação com o tecido ósseo sob a forma de uma camada de hidroxiapatite carbonatada. No presente trabalho caracterizaram-se vidros bioativos sem conteúdo alcalino, cuja composição incide no sistema binário de diópsido (CaMgSi2O6) e fosfato de tricálcio (3CaO·P2O5), em função da sua molhabilidade, carga superficial, perfil de degradação, carácter bioativo em fluido fisiológico simulado e do seu comportamento in vitro em contacto com células estaminais mesenquimais humanas (hMSCs). A medição do ângulo de contacto inicial de água sobre os vidros demonstrou o carácter hidrofílico dos vidros investigados. A determinação do potencial zeta mostrou que a carga superficial dos vidros é negativa, sendo mais negativa na composição Di-70. O estudo da biodegradação dos vidros, efetuado através da sua imersão em Tris-HCl, permitiu concluir que a perda de peso dos vidros foi reduzida. A caraterização in vitro em meio acelular foi efetuada através da imersão dos vidros numa solução de fluido fisiológico simulado (SBF) e verificou-se que estes possuem capacidade de formar uma camada de hidroxiapatite carbonatada à sua superfície após 7 dias, detetável por XRD, FTIR e SEM/EDS, sugerindo que este conjunto de vidros é potencialmente bioativo, e poderá estimular a proliferação e diferenciação celular. A resposta das hMSCs em cultura aos vidros bioativos foi avaliada em termos de atividade metabólica, morfologia, viabilidade, proliferação e diferenciação osteogénica e conclui-se que os biovidros Di-60 e Di-70 poderão constituir um suporte viável para a proliferação e diferenciação de hMSCs.
Resumo:
This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.
Resumo:
The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.
Resumo:
Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.
Resumo:
Nesta tese abordam-se várias formulações e diferentes métodos para resolver o Problema da Árvore de Suporte de Custo Mínimo com Restrições de Peso (WMST – Weight-constrained Minimum Spanning Tree Problem). Este problema, com aplicações no desenho de redes de comunicações e telecomunicações, é um problema de Otimização Combinatória NP-difícil. O Problema WMST consiste em determinar, numa rede com custos e pesos associados às arestas, uma árvore de suporte de custo mínimo de tal forma que o seu peso total não exceda um dado limite especificado. Apresentam-se e comparam-se várias formulações para o problema. Uma delas é usada para desenvolver um procedimento com introdução de cortes baseado em separação e que se tornou bastante útil na obtenção de soluções para o problema. Tendo como propósito fortalecer as formulações apresentadas, introduzem-se novas classes de desigualdades válidas que foram adaptadas das conhecidas desigualdades de cobertura, desigualdades de cobertura estendida e desigualdades de cobertura levantada. As novas desigualdades incorporam a informação de dois conjuntos de soluções: o conjunto das árvores de suporte e o conjunto saco-mochila. Apresentam-se diversos algoritmos heurísticos de separação que nos permitem usar as desigualdades válidas propostas de forma eficiente. Com base na decomposição Lagrangeana, apresentam-se e comparam-se algoritmos simples, mas eficientes, que podem ser usados para calcular limites inferiores e superiores para o valor ótimo do WMST. Entre eles encontram-se dois novos algoritmos: um baseado na convexidade da função Lagrangeana e outro que faz uso da inclusão de desigualdades válidas. Com o objetivo de obter soluções aproximadas para o Problema WMST usam-se métodos heurísticos para encontrar uma solução inteira admissível. Os métodos heurísticos apresentados são baseados nas estratégias Feasibility Pump e Local Branching. Apresentam-se resultados computacionais usando todos os métodos apresentados. Os resultados mostram que os diferentes métodos apresentados são bastante eficientes para encontrar soluções para o Problema WMST.
Resumo:
Neste trabalho estudaram-se as interfaces carboneto de silício-solução aquosa e carbono-solução aquosa, com vista a uma melhor compreensão dos processos de floculaçáo e desfloculaçáo de suspensões de cada um daqueles materiais e de suas misturas. Os pós foram caracterizados por recurso a técnicas de sedimentação, microscopia electrónica de varrimento, difracçáo de raios-X, análises térmicas, espectroscopia de infra-vermelhos e picnometria de hélio. As suspensões foram caracterizadas por técnicas de microelectroforese, sedimentação e reologia. Estudou-se a influência de algumas variáveis mais importantes do processo de enchimento por barbotina como, por exemplo, o mecanismo e o grau de estabilização das suspensões, a concentração de sólidos, a distribuição granulométrica das partículas, e o tempo de envelhecimento das suspensões, na estrutura das partículas em suspensão e nas características dos corpos conformados por enchimento por barbotina. A cinética deste processo foi estudada sob o efeito de pressão aplicada e relacionada com a estrutura das partículas em suspensão e com a microstrutura dos corpos em verde. Estudaram-se os mecanismos da segregação de tamanhos de partículas em suspensão que ocorre durante o processo de enchimento por barbotina devidos aos efeitos da gravidade e da obstrução do bolo pelas partículas finas. Discutiram-se os domínios das variáveis do processo em que cada um daqueles efeitos é dominante e propôs-se um novo modelo para o fenómeno da segregação por efeito de obstrução capaz de interpretar os resultados observados neste trabalho e os encontrados na literatura. Estabeleceram-se correlações estreitas entre as variáveis do processo de enchimento por barbotina, a microestrutura dos corpos conformados e o seu comportamento durante a etapa da secagem. Procurou ainda avaliar-se a capacidade do enchimento por barbotina para preparar materiais compósitos de carboneto de silício e carbono com características adequadas para a sinterizaçáo reactiva.