29 resultados para Hidroxiapatita sintética
Resumo:
O presente trabalho descreve estudos relativos à validação e aperfeiçoamento de uma nova técnica de adsorção em flocos de materiais adsorventes pulverizados e seu uso em reator de leito expandido/fluidizado. A técnica consiste na utilização de polímeros aquo-solúveis para a floculação de suspensões aquosas de materiais adsorventes pulverizados, baseando-se no baixo custo dos mesmos e no fato de que a capacidade de adsorção dos flocos resultantes não é afetada significativamente pelo polímero floculante. O uso da técnica em reator de leito expandido/fluidizado possibilita ainda a vantagem de união dos processos de adsorção e separação sólido-líquido em uma única etapa. Os estudos foram realizados a partir da floculação de carvão ativado e zeólita natural pulverizados, separados e em mistura, para a adsorção de fenol e nitrogênio amoniacal (separados e misturados). Foi realizada uma adequada caracterização dos materiais particulados, incluindo a determinação de distribuição granulométrica, área superficial específica, potencial zeta, dentre outros. Estudos em escala de bancada foram realizados com ambos os poluentes e materiais adsorventes a fim de obter parâmetros de processo (capacidade de adsorção, cinética e concentração de floculante). Estudos em escala semipiloto com um reator de leito expandido/fluidizado de geometria cilíndrico-cônica foram realizados para estudar a adsorção dos poluentes em leito de flocos dos materiais adsorventes (separados e misturados), assim como a regeneração/reciclo do mesmo. A caracterização dos materiais apresentou propriedades semelhantes para ambos (distribuição granulométrica, potencial zeta) e outras distintas para cada um deles (massa específica, área superficial específica) A capacidade de troca catiônica da zeólita natural foi determinada em 1,02 meq NH4 +.g-1 (após homoionização com NaCl). Este material, proveniente do Chile, mostrou um significativo potencial de aplicação como adsorvente de corantes (como o azul de metileno) e, principalmente, de nitrogênio amoniacal. O floculante utilizado na geração dos flocos adsorventes, separados e misturados, foi do tipo poliacrilamida catiônica e sua concentração ótima foi de 4 e 5 mg.g-1, respectivamente. Os resultados obtidos nos estudos em escala de bancada (batelada) mostraram elevada cinética (valor médio de 0,3 min-1) e alta capacidade (valor médio de 13,4 mg NH3-N.g-1) em pH neutro (aproximadamente 6) para a adsorção de nitrogênio amoniacal em zeólita natural pulverizada e floculada. No caso da adsorção de fenol em carvão ativado pulverizado e floculado, foram obtidas uma alta cinética (valor médio de 0,8 min-1) e elevada capacidade (156 mg.g-1). Os dados cinéticos e de equilíbrio foram adequadamente descritos por um modelo cinético para reações reversíveis de primeira ordem e pelas isotermas de Langmuir e Freundlich, respectivamente. Tanto a cinética quanto a capacidade de adsorção não mostraram-se afetadas de forma significativa pelo uso do polímero floculante, sendo observada uma ausência de sinergismo na adsorção dos poluentes devido à mistura dos dois materiais adsorventes, tanto pulverizados quanto floculados. Os resultados obtidos nos estudos em escala semipiloto validaram a utilização de flocos de zeólita natural e carvão ativado pulverizados (não- misturados) em reator de leito expandido/fluidizado na adsorção de nitrogênio amoniacal (11 mg NH3-N.g-1) e fenol (132 mg.g-1), respectivamente, dentro das condições experimentais estabelecidas (taxas de aplicação de 38 e 19 m.h-1, respectivamente) A regeneração/reciclo do leito saturado de flocos mostrou-se viável para o caso da adsorção de nitrogênio amoniacal em zeólita natural, sendo insatisfatória para o leito de carvão ativado saturado em fenol. O uso de leitos mistos mostrou-se eficaz e com vantagens tais como a adsorção de múltiplos poluentes em uma única etapa e a possibilidade de aumento da taxa de aplicação no uso de materiais adsorventes menos densos (carvão ativado) misturados com materiais adsorventes de maior massa específica (zeólita natural). Uma pré-avaliação dos custos operacionais envolvidos na técnica para uso em reator de leito expandido/fluidizado foi realizada, sendo estimados entre 0,32 e 1,48 US$.m-3 (volume de solução sintética de poluente tratada até o ponto de exaustão do leito). Finalmente, são discutidas as potencialidades, vantagens/desvantagens e a viabilidade da nova técnica como processo físico-químico alternativo de adsorção em materiais adsorventes pulverizados.
Resumo:
A RPPN SESC-Pantanal, em Barão de Melgaço, MT, apresenta características em grande parte associadas à fisionomia do cerrado, com áreas mais secas em relação às regiões localizadas mais ao sul e a oeste do Pantanal. O mapa de cobertura do solo, produzido através de classificação não-supervisionada de imagens de satélite, identificou 18 classes de cobertura e nove domínios fisionômicos, que correspondem a uma representação sintética da distribuição das unidades da paisagem na Reserva. O desenvolvimento apropriado de estratégias de manejo e de conservação fundamenta-se principalmente no conhecimento da fauna regional, ressaltado pela sua abundância e formas de uso da área. A anta, Tapirus terrestris, e o cervo-do-pantanal, Blastocerus dichotomus, são elementos bastante comuns na paisagem da RPPN. A estimativa do tamanho da população de antas na região de estudo foi de 581 indivíduos; a densidade (0,71 ind./km2), no conjunto das fisionomias florestais da região, foi 92% mais elevada do que para as formações campestres (0,37 ind./km2). O tamanho populacional estimado para o cervo-do-pantanal foi de 135 indivíduos (0,44 ind./km2) para o período seco, e 157 indivíduos (0,73 ind./km2) para o período úmido. Com base nos modelos de distribuição gerados, nos resultados obtidos via o Índice de Seleção e nas estimativas de densidade, pode-se inferir sobre a qualidade dos hábitats para as espécies. As Matas com Acuri (Scheelea phalerata) são de elevada importância para T. terrestris, embora a espécie tenha ampla distribuição na Reserva. B. dichotomus tem sua maior população no Pantanal e, na Reserva, está em condição peculiar em relação à descrita como característica para a espécie: ocupa hábitats mais secos do que na maior parte de sua área de ocorrência Os hábitats campestres, relacionados à presença de murundus, foram selecionados positivamente pela espécie. A análise espacial em diferentes escalas foi fundamental para evidenciar a importância de corpos d’água (tanques ou baías) na previsão da ocorrência da espécie: as zonas de maior probabilidade dispõem-se na forma de núcleos centrados na rede de tanques, na área central da Reserva e nas adjacências de baías na porção leste da UC. As análises demonstraram uma hierarquia no uso dos hábitats, tanto para T. terrestris quanto para B. dichotomus, permitindo identificar zonas onde as chances são maiores de ocorrência das espécies, uma expressão de conjuntos de fatores que devem se aproximar do ótimo para as espécies no contexto da paisagem estudada.
Resumo:
Apresentamos a análise de diagramas cor-magnitude (CMDs) profundos para 5 aglomerados ricos da Grande Nuvem de Magalhães (LMC). Os dados fazem parte do projeto HST G07307, entitulado "Formação e Evolução de Aglomerados Estelares Ricos da LMC", e foram obtidos através do HST/WFPC2 nos filtros F555W (~ V) e F814W (~ I), alcançando V555~25. A amostra de aglomerados é composta por NGC 1805 e NGC 1818, os mais jovens (r < 100 Myr), NGC 1831e NGC 1868,de idades intermediárias (400 < r < 1000Myr), e Hodge 14, o mais velho (r > 1200Myr). Discutimos e apresentamos um método de correção dos CMDs para incompleteza da amostra e contaminação por estrelas de campo. O uso eficiente das informações contidas nos CMDs foi feito por meio de comparações entre os CMDs observados e CMDs modelados. O processo de modelamento de CMDs gera uma Seqüência Principal (MS) sintética, que utiliza como entrada do modelo a informação sobre idade (r), metalicidade (Z), Função de Massa do Presente (PDMF), fração de binárias não resolvidas, distância e extinção da luz. As incertezas fotométricas foram empiricamente determinadas a partir dos dados e incorporadas no modelamento. Técnicas estatísticas de comparação entre CMDs em 1D e 2D são apresentadas e aplicadas como métodos objetivos capazes de determinar a compatibilidade entre modelo e observação. Modelando os CMDs da região central dos aglomerados podemos inferir a metalicidade (Z), o módulo de distância intrínseco ((V - Mv)o) e o avermelhamento (E(B-V)) para cada aglomerado. Também determinamos as idades para os 3 aglomerados mais velhos de nossa amostra. Continuação) Através da comparação em 2D os valores encontrados foram os seguintes: para NGC 1805, Z = 0.007:1+-0.003, (V - Mv)o = 18.50:1+- 0.10, E(B - V) = 0.03:1+-0.01; para NGC 1818,Z = 0.005:1+-0.002, (V - Mv)o = 18.50:1+-0.15, E(B - V)~0.00; para NGC 1831, Z = 0.012:1+-0.002, log(r /yr) = 8.70 :I+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V)~ 0.00; para NGC 1868, Z = 0.008:1+-0.002,log(r/yr) =8.95:1+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V) ~0.00; para Hodge 14, Z = 0.008+-0.004, log(r/yr) = 9.23+-0.10, (V - Mv)o = 18.50+-0.15, E(B - V) = 0.02+- 0.02. Estes valores estão de acordo, dentro das incertezas, com os valores obtidos através da análise de linhas fiduciais (lD), o que agrega confiabilidade a estas determinações. Através da análise de CMDs em regiões concêntricas determinamos a dependência espacial da inclinação da PDMF (a) nos aglomerados mais ricos. Para tanto empregamos duas abordagens distintas para a determinação de a: 1) método tradicional em 1D via conversão direta de V555em massa; 2) método em 2D via modelmento de CMDs. Independente do método de análise, todos os aglomerados analisados demonstram claramente o efeito de segregação em massa. Além disso, NGC 1818, NGC 1831 e NGC 1868 apresentam uma possível perda seletiva de estrelas de baixa massa nas suas regiões mais externas.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
A presente dissertação versa sobre a sincronização idêntica em redes de osciladores caóticos. Uma perspectiva razoavelmente histórica sobre a literatura da área é apresentada . O conceito de caos é introduzido junto com outras idéias da dinâmica não-linear: sistemas dinâmicos, exemplos de sistemas, atratores, expoentes de Liapunov, etc. A integração numérica de equações diferenciais é largamente utilizada, principalmente, para o cálculo de expoentes e o desenho do diagrama de fases. A sincronização idêntica é definida, inicialmente, em redes que não passam de um par de osciladores. A variedade de sincronização (conjunto de pontos no espaço de fases no qual a solução do sistema é encontrada se há sincronização) é determinada. Diferentes variantes de acoplamentos lineares são enfocadas: acoplamento interno, externo, do tipo mestre-escravo e birecional, entre outras. Para detectar sincronização, usa-se o conceito de expoente de Liapunov transversal, uma extensão do conceito clássico de expoente de Liapunov que caracteriza a sincronização como a existência de um atrator na variedade de sincronização. A exposição é completada com exemplos e atinge relativo detalhe sobre o assunto, sem deixar de ser sintética com relação à ampla literatura existente. Um caso de sincronização em antifase que usa a mesma análise é incluído. A sincronização idêntica também é estudada em redes de osciladores idênticos com mais de dois osciladores. As possibilidades de sincronização completa e parcial são explanadas. As técnicas usadas para um par de osciladores são expandidas para cobrir este novo tipo de redes. A existência de variedades de sincronização invariantes é considerada como fator determinante para a sincronização. A sincronização parcial gera estruturas espaciais, analisadas sob a denominação de padrões. Algumas relações importantes entre as sincronizações são explicitadas, principalmente as degenerescências e a relação entre a sincronização parcial e a sincronização completa do respectivo estado sincronizado para alguns tipos de acoplamento. Ainda são objetos de interesse as redes formadas por grupos de osciladores idênticos que são diferentes dos osciladores dos outros grupos. A sincronização parcial na qual todos os grupos de osciladores têm seus elementos sincronizados é chamada de sincronização primária. A sincronização secundária é qualquer outro tipo de sincronização parcial. Ambas são exemplificadas e analisadas por meio dos expoentes transversais e novamente por meio da existência de invariantes de sincronização. Obtém-se, então, uma caracterização suficientemente ampla, completada por casos específicos.
Resumo:
O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.
Resumo:
Na última década muitos esforços têm sido feitos em verificação formal de propriedades de agentes do cálculo-π. Uma dessas propriedades é a equivalência observacional, que serve para determinar se um processo é equivalente a sua especificação. Contudo, a verificação de equivalência observacional não é um problema trivial. A maioria dos algoritmos destinados a verificação de equivalência são baseados na construção de sistemas de transições rotuladas (π-autômatos). O principal problema com essa abordagem é o grande número de estados envolvidos podendo chegar a um número infinito. Montanari e Pistore mostram que é possível gerar π-autômatos finitos para agentes-π e é possível reduzir a quantidade de estados desses π-autômatos, através da identificação dos nomes ativos. Um nome é semanticamente ativo em um agente se ele pode ser executado de forma observável por ele. Este é um trabalho de análise estática, que tem por objetivo coletar os possíveis nomes ativos contidos em expressões-π, utilizando para isso um sistema de tipos. A vantagem da utilização de sistemas de tipos em relação a outras formas de análise estática é que sistemas de tipos são sistemas lógicos, logo as técnicas de prova da lógica podem ser aproveitadas no estudo de propriedades de sistemas de tipos. Além disso sistemas de tipos são definidos através da estrutura sintática de expressões, facilitando assim as provas por indução estrutural. Assim a principal contribuição deste trabalho é a elaboração do Active-Base-π, um sistema de tipos para a coleta de nomes ativos de expressões-π.
Resumo:
O poli (ácido L-láctico) (PLLA) é um material de grande interesse na área científica, por ser um polímero biodegradável e bioabsorvível, e pela sua grande utilização na área biomédica. Este estudo teve como objetivo a síntese de PLA através de policondensação direta e em meio supercrítico (scCO2) e sua caracterização. As duas rotas buscam um processo limpo de síntese dos polímeros, livre de solvente orgânico. Além disso, procurou-se reduzir os custos de obtenção utilizando matéria-prima nacional (ácido láctico P.A. comercial). As reações de polimerização de PLLA realizada por policondensação e em scCO2 foram feitas em dois estágios. No primeiro estágio da síntese, para ambos os processos, o pré-polímero do ácido láctico foi obtido através de uma reação simples de condensação, com retirada de água, sob atmosfera inerte de N2 e 160ºC. Na segunda etapa, para a reação de policondensação, o polímero PLLA, foi obtido a partir do pré-polímero em uma temperatura de 140ºC e sob pressão reduzida por o tempo desejado (100h, 200h e 350h). As reações em meio scCO2 foram realizadas em um reator de aço inoxidável de 100 mL equipado com uma barra de agitação magnética, sob pressão de CO2 (80atm) e a 90ºC por 4 horas. Em ambas as reações de polimerização foram usadas complexos de estanho como catalisador. No início deste trabalho foram realizadas algumas reações utilizando o D, L-ácido láctico em scCO2. Também foi realizada a síntese do lactide e a polimerização deste por abertura de anel. Para efeito comparativo, também foi realizada a polimerização do lactide comercial. Os polímeros obtidos foram caracterizados por espectroscopia de Ressonância Magnética Nuclear de Próton (1HRMN), por espectroscopia de infravermelho (IV), por cromatografia de permeação em gel (GPC), por calorimetria exploratória de varredura (DSC) e pela técnica de análise termogravimétrica (TGA) A reação de policondensação revelou ser uma rota sintética excelente na obtenção de polímeros de PLA com peso molecular variados. A formação dos polímeros a partir do monômero de ácido láctico foi confirmada pelo desaparecimento da banda de OH em 3500 cm-1 no espectro de infravermelho. O espectro de 1H-RMN de ambos os polímeros, mostrou um sinal atribuído ao hidrogênio do grupo CH3 em 1,52 ppm e um sinal atribuído aos hidrogênios do grupo do CH em 5,16 ppm, que estão de acordo com a literatura. Os polímeros obtidos possuem potencial para uso clínico como materiais de implante.
Resumo:
Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.
Resumo:
A quantidade e diversidade dos dados disponíveis na Web aumentam constantemente. Os motores de busca disponíveis, que usam palavras-chave, fornecem ao usuário resultados inexatos. Atualmente, os sistemas convencionais de consultas utilizam técnicas de base sintática. As pesquisas voltam-se para o estudo de abordagens de consultas através de conceitos, permitindo a recuperação semântica. Neste sentido, algumas propostas envolvem a criação de metadados que seguem modelos de ontologias.O propósito deste trabalho é apresentar, avaliar e permitir uma melhor compreensão de um conjunto de conceitos, linguagens e ferramentas que são usadas na Web Semântica. Dentre elas, linguagens para construção de ontologias e linguagens para consultas; além das ferramentas associadas que objetivam o armazenamento, manutenção e anotação em ontologias. Para atingir este propósito, estas linguagens e ferramentas são aplicadas a um caso de dimensão e complexidade realistas, o Currículo Lattes. O trabalho apresenta um modelo de metadados com semântica para o Currículo Lattes. Este modelo é baseado numa ontologia especificada na linguagem DAML+OIL. Além disso, é apresentada uma avaliação dos métodos de instanciação desta ontologia. Uma avaliação dos métodos e/ou linguagens de consulta mais adequadas para a consulta semântica das informações também é apresentada.
Resumo:
Este estudo tem como tema os condomínios horizontais fechados, tipologia habitacional que constitui atualmente uma grande fatia do mercado imobiliário brasileiro. O problema de pesquisa reside na satisfação dos moradores em relação ao ambiente interno dos condomínios, o que contribui para sua expansão e legitimação, e na forma que eles interferem na qualidade do ambiente construído. Assim, é objetivo avaliar o desempenho interno dos condomínios horizontais fechados no que tange ao preenchimento das expectativas de seus usuários e o impacto físico-espacial que causam no espaço urbano. Para tal, são selecionados três condomínios horizontais fechados de médio porte, localizados em zonas de tecido urbano consolidado de Porto Alegre, compostos por sobrados dispostos em fita, circundados por barreiras funcionais e visuais (muros), e habitados por população de classe alta. Para comparação, é selecionada uma sub-área (rua) nas proximidades de cada condomínio investigado, com características físico-espaciais similares às adjacentes aos condomínios, porém constituída por edificações tradicionais. Como método de coleta de dados são utilizadas técnicas da área de pesquisa ‘Ambiente Comportamento’: questionários, mapas mentais, observações de comportamento e de traços físicos, levantamentos físicos detalhados, e levantamentos de arquivo, como desenhos e demais dados coletados junto a órgãos públicos, incluindo o registro da ocorrência de crimes. Além da análise estatística não paramétrica dos dados quantitativos e da análise dos dados qualitativos, quanto ao seu significado e freqüência, é procedida a análise compositiva dos condomínios selecionados e sua relação com o espaço urbano, assim como a análise sintática das linhas representativas das ruas mais e menos integradas Os principais resultados demonstram que os condomínios horizontais fechados tendem a produzir ambientes residenciais que repercutem positivamente na satisfação de seus moradores, atendendo às suas expectativas. Assim, pode-se dizer que possuem bom desempenho interno, e que os pontos positivos centram-se em seu interior. Por outro lado, os condomínios investigados são usualmente percebidos como estruturas monótonas, o que repercute negativamente para a aparência das ruas que conformam. Ainda, a inexistência de conexões físicas entre o espaço público e o privado, tende a favorecer a ocorrência de determinados tipos de crimes, aumentar o sentimento de insegurança, além de diminuir a intensidade e simplificar o tipo de uso dos espaços públicos. Assim, os condomínios horizontais fechados tendem a impactar negativamente o espaço urbano
Resumo:
Cimentos ósseos são materiais desenvolvidos há aproximadamente uma década para aplicações biomédicas. Um cimento deste tipo pode ser preparado misturando um sal de fosfato de cálcio com uma solução aquosa para que se forme uma pasta que possa reagir à temperatura corporal dando lugar a um precipitado que contenha hidroxiapatita [Ca10(PO4)6(OH)2]. A similaridade química e morfológica entre este biomaterial e a parte mineral dos tecidos ósseos permite a osteocondução, sendo o cimento substituído por tecido ósseo novo com o tempo e com a vantagem de não desencadear rejeição. Estes cimentos são usados principalmente para as operações de preenchimento ósseo, que requer operações cirúrgicas extremamente invasivas. O desafio atual é colocar este biomaterial no local de enxerto pelo método menos agressivo possível. A inovação consiste em formular composição de cimento ósseo injetável pela incorporação de aditivos. No entanto, propriedades como reduzido tempo de cura, limitada dissolução em meio líquido e resistência mecânica adequada ao local do enxerto devem ser preservadas. Neste estudo, foram abordados oito diferentes aditivos que foram incorporados ao fosfato tricálcico [Ca3(PO4)2] sintetizado, juntamente com a solução do acelerador de cura (2,5%massa de Na2HPO4 dissolvido em água destilada): CMC (carboximetilcelulose), polímero de AGAR (polissacarídeo de algas vermelhas), alginato de sódio, quitosana (fibra natural derivada da quitina), pirofosfato de sódio, lignosulfonato de sódio (polissacarídeo de algas marrons), glicerina e ácido láctico nas concentrações 0,4%; 0,8%; 1,6%; 3,2%; 6,4% em massa. Os resultados demonstraram que foi possível obter composições de cimento de fosfato de cálcio injetáveis para uso biomédico. Constatou-se uma relação de proporcionalidade direta entre a injetabilidade do cimento e tempo de injeção, sendo a injetabilidade dependente do comportamento reológico das pastas. Todas formulações testadas seguiram a mesma tendência de redução da resistência mecânica à compressão e aumento da porosidade com o aumento da quantidade de aditivo incorporado. Verificou-se que as formulações com 1,6% de carboxi-metil-celulose, 1,6% de AGAR e 0,8% de alginato de sódio, permitiram a obtenção de uma viscosidade suficiente para uma boa homogeneização e injeção, apresentando ao final da cura resistência mecânica à compressão semelhante ao do osso esponjoso.
Resumo:
Foi realizado um experimento com o objetivo de avaliar relações crescentes de treonina para lisina digestível em dietas formuladas com base no conceito de proteína ideal. Para tal, alojou-se 1.600 frangos de corte machos Ross x Ross 308 em arranjo fatorial com 3 relações entre treonina e lisina digestível (0,635; 0,660 e 0,685) e 2 fontes de treonina suplementar (Farelo de Soja (FS) e L-Treonina sintética (L-Thr)) com dois tratamentos controle (positivo e negativo). Assim, o experimento contou com oito tratamentos e oito repetições de 25 aves. Os tratamentos com as respectivas relações treonina:lisina digestível (TLD) e fontes de treonina foram: T1 (controle positivo) com relação TLD de 0,700 (FS+L-Thr); T2 (controle negativo) com relação 0,610 (FS); T3 com relação 0,635 (FS+L-Thr); T4 com relação 0,660 (FS+LThr); T5 com relação 0,685 (FS+L-Thr); T6 com relação 0,635 (FS); T7 com relação 0,660 (FS) e T8 com relação TLD 0,685 (FS). Todas as dietas foram formuladas para apresentarem o mesmo nível mínimo de nutrientes e energia sem restrição para o nível de proteína bruta. Não houve efeito da suplementação de treonina sobre as características avaliadas. Conversão alimentar (P=0,0095) e consumo de água (P=0,0113) foram significativamente melhores para a proteína intacta (FS) comparativamente às dietas com suplementação dos 3 primeiros AA limitantes (L-Thr). Contudo, a característica rendimento de peito apresentou resultado superior (P=0,0351) para as dietas suplementadas com treonina sintética. Não foi observado efeito dos tratamentos sobre as demais respostas estudadas. Desta forma, a menor relação entre treonina e lisina digestível estudada, ou seja, 0,610, foi suficiente para atender as exigências para ótimo desempenho dos frangos de corte dos 15 aos 37 dias de idade. Todavia, para a característica rendimento de peito recomenda-se a relação TLD mínima de 0,635. Em virtude de as melhores respostas terem sido obtidas com as dietas cuja fonte de treonina foi exclusivamente o FS, atribui-se estas respostas ao maior conteúdo de aminoácidos menos limitantes e aminoácidos não-essenciais contidos nas referidas dietas.