959 resultados para Derivação sintática
Resumo:
Esta tese visa estudar um procedimento obstétrico clínico rotineiro, recomendado por várias sociedades obstétricas no mundo, inclusive a Federação Brasileira das Sociedades de Ginecologia e Obstetrícia e o Ministério da Saúde do Brasil, a medida de altura uterina. A recomendação é medir a distância entre o bordo superior da sínfise púbica e o fundo do útero (com fita inextensível, marcada em centímetros) a cada consulta pré-natal, e cotejar o valor obtido a valores de referência, determinados por uma curva padrão definida por percentis de altura uterina obtidos ao longo da gravidez. O objetivo desse procedimento é detectar anormalidades no crescimento fetal, seja crescimento excessivo ou insuficiente. O crescimento fetal excessivo está associado a aumento na morbidade perinatal, por aumento dos casos de hipóxia e de traumatismo secundários a parto distócico, além de maior risco de obesidade e diabetes tipo 2 na vida adulta. Também eleva a morbidade materna, por aumento no número de cesáreas e partos instrumentados. A importância da detecção de gestações com crescimento fetal insuficiente reside nos índices aumentados de mortalidade e de morbidade nesses recém-nascidos, no período perinatal, neonatal e pós-natal, até à vida adulta. Método de baixos custo e complexidade, não invasivo e aplicável durante a consulta pré-natal usual, a medida da altura uterina ao longo da gestação tem algumas das características desejáveis em um teste de rastreamento. Entretanto, seu desempenho na identificação das anormalidades do crescimento fetal intra-uterino tem achados bastante desiguais na literatura. Assim como grande parte das características fetais, a altura uterina é diretamente dependente do tempo de gestação e, portanto, erros na datação da gestação podem interferir no desempenho do método como indicador de anormalidade de crescimento intra-uterino Esta tese, baseada em dados do Estudo Brasileiro do Diabetes Gestacional (EBDG), avalia o impacto clínico da medição rotineira da altura uterina em gestantes que fazem acompanhamento pré-natal no Sistema Único de Saúde (SUS). No primeiro artigo, descrevemos a distribuição das medidas de altura uterina a cada semana de gestação obtidas no EBDG e a confrontamos com a distribuição descrita no estudo do Centro Latino-Americano de Perinatologia (CLAP). Determinamos também o desempenho diagnóstico das duas distribuições na identificação de recém-nascidos pequenos e grandes para a idade da gestação nas gestantes do estudo brasileiro. No segundo artigo, derivam-se e testam-se regras clínicas para a detecção pré-natal de recém-nascidos pequenos para a idade gestacional, agregando à medida da altura uterina outras características clínicas associadas a esse desfecho da gravidez. Utiliza-se a divisão randômica da população estudada em duas coortes, uma para derivação das regras clínicas de predição e a outra para a testagem e validação dessas regras.
Resumo:
O poli (ácido L-láctico) (PLLA) é um material de grande interesse na área científica, por ser um polímero biodegradável e bioabsorvível, e pela sua grande utilização na área biomédica. Este estudo teve como objetivo a síntese de PLA através de policondensação direta e em meio supercrítico (scCO2) e sua caracterização. As duas rotas buscam um processo limpo de síntese dos polímeros, livre de solvente orgânico. Além disso, procurou-se reduzir os custos de obtenção utilizando matéria-prima nacional (ácido láctico P.A. comercial). As reações de polimerização de PLLA realizada por policondensação e em scCO2 foram feitas em dois estágios. No primeiro estágio da síntese, para ambos os processos, o pré-polímero do ácido láctico foi obtido através de uma reação simples de condensação, com retirada de água, sob atmosfera inerte de N2 e 160ºC. Na segunda etapa, para a reação de policondensação, o polímero PLLA, foi obtido a partir do pré-polímero em uma temperatura de 140ºC e sob pressão reduzida por o tempo desejado (100h, 200h e 350h). As reações em meio scCO2 foram realizadas em um reator de aço inoxidável de 100 mL equipado com uma barra de agitação magnética, sob pressão de CO2 (80atm) e a 90ºC por 4 horas. Em ambas as reações de polimerização foram usadas complexos de estanho como catalisador. No início deste trabalho foram realizadas algumas reações utilizando o D, L-ácido láctico em scCO2. Também foi realizada a síntese do lactide e a polimerização deste por abertura de anel. Para efeito comparativo, também foi realizada a polimerização do lactide comercial. Os polímeros obtidos foram caracterizados por espectroscopia de Ressonância Magnética Nuclear de Próton (1HRMN), por espectroscopia de infravermelho (IV), por cromatografia de permeação em gel (GPC), por calorimetria exploratória de varredura (DSC) e pela técnica de análise termogravimétrica (TGA) A reação de policondensação revelou ser uma rota sintética excelente na obtenção de polímeros de PLA com peso molecular variados. A formação dos polímeros a partir do monômero de ácido láctico foi confirmada pelo desaparecimento da banda de OH em 3500 cm-1 no espectro de infravermelho. O espectro de 1H-RMN de ambos os polímeros, mostrou um sinal atribuído ao hidrogênio do grupo CH3 em 1,52 ppm e um sinal atribuído aos hidrogênios do grupo do CH em 5,16 ppm, que estão de acordo com a literatura. Os polímeros obtidos possuem potencial para uso clínico como materiais de implante.
Resumo:
Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.
O outro lado de Fausto: um estudo de um programa de educação corporativa a partir da razão dialética
Resumo:
A educação como categoria basilar à modernidade das empresas é uma das temáticas mais debatidas na academia e no cotidiano organizacional. Os programas de educação corporativa são adotados pelas organizações como sustentáculo à competitividade ao gerar maior valor aos ativos intangíveis. Discutir, no entanto, se a concepção desses programas perpassa pelo sentido valorativo e conceitual daquilo que propõe a educação formal é um dos propósitos centrais desenvolvidos nessa pesquisa. Argumenta-se de que forma as forças contraditórias existentes nos programas de educação corporativa garantem, de um lado, maiores oportunidades de crescimento profissional e, de outro, inibem a competência crítica e reflexiva na empresa MARCA S/A (nome fictício). Essa relação dualista e permeada de variabilidade permitiu estudá-lo a partir da razão dialética. Tal vertente metodológica possibilitou a construção sintética e compreensão de seus fatores contributivos por meio da justaposição de tese e antítese que situam-se em condições opostas. Os resultados obtidos na pesquisa de campo foram classificados em três categorias próprias ao método escolhido: totalidade, sistema de contradição e negação da negação. Em sua análise, optou-se por realizar uma analogia à obra de Goethe, Fausto, para retratar a realidade vivida tanto pelo seu personagem principal como pelos empregados entrevistados: seu esforço confuso na busca por um ideal incognoscível já que, ao ser encontrado, nunca o satisfaz. Dentro deste contexto essencialmente faustiano, compreende-se o sentido dialético que os movimenta, acomete e surpreende a cada dia nas relações com a empresa pesquisada: da mesma forma que ela os sufoca e limita utilizando-se dos programas de educação corporativa como instrumentos doutrinários; ao mesmo tempo, assegura-lhes, por meio dos mesmos programas, segurança e melhores condições de vida. Dimensões que apresentam-se como contraponto a uma literatura epistemológica funcionalista dominante e consideram um complexo multifacetado que, ao modelo do dramático Fausto, sugerem provocações muito além do bem e do mal.
Resumo:
Seja K um corpo de característica zero e seja An(K) a n-ésima Álgebra de Weyl sobre K. Neste trabalho, discutimos a existência de ideais maximais à esquerda de An (K) gerados por operadores de ordem 1. Primeiramente, estabelecemos uma relação entre derivações simples de K[X1: ..., Xn] e ideais principais maximais à esquerda de Ân(K). Para n> 2, caracterizamos as derivações de Shamsuddin de K[X1, ..., Xn] que são simples. Depois, mostrámos que se d é uma derivação de Shamsuddin simples de K[X1, ..., Xn], então existe 9 E K[X1, ..., Xn] tal que Ân.(d+g) é um ideal maximal principal à esquerda.
Resumo:
A quantidade e diversidade dos dados disponíveis na Web aumentam constantemente. Os motores de busca disponíveis, que usam palavras-chave, fornecem ao usuário resultados inexatos. Atualmente, os sistemas convencionais de consultas utilizam técnicas de base sintática. As pesquisas voltam-se para o estudo de abordagens de consultas através de conceitos, permitindo a recuperação semântica. Neste sentido, algumas propostas envolvem a criação de metadados que seguem modelos de ontologias.O propósito deste trabalho é apresentar, avaliar e permitir uma melhor compreensão de um conjunto de conceitos, linguagens e ferramentas que são usadas na Web Semântica. Dentre elas, linguagens para construção de ontologias e linguagens para consultas; além das ferramentas associadas que objetivam o armazenamento, manutenção e anotação em ontologias. Para atingir este propósito, estas linguagens e ferramentas são aplicadas a um caso de dimensão e complexidade realistas, o Currículo Lattes. O trabalho apresenta um modelo de metadados com semântica para o Currículo Lattes. Este modelo é baseado numa ontologia especificada na linguagem DAML+OIL. Além disso, é apresentada uma avaliação dos métodos de instanciação desta ontologia. Uma avaliação dos métodos e/ou linguagens de consulta mais adequadas para a consulta semântica das informações também é apresentada.
Resumo:
Este estudo tem como tema os condomínios horizontais fechados, tipologia habitacional que constitui atualmente uma grande fatia do mercado imobiliário brasileiro. O problema de pesquisa reside na satisfação dos moradores em relação ao ambiente interno dos condomínios, o que contribui para sua expansão e legitimação, e na forma que eles interferem na qualidade do ambiente construído. Assim, é objetivo avaliar o desempenho interno dos condomínios horizontais fechados no que tange ao preenchimento das expectativas de seus usuários e o impacto físico-espacial que causam no espaço urbano. Para tal, são selecionados três condomínios horizontais fechados de médio porte, localizados em zonas de tecido urbano consolidado de Porto Alegre, compostos por sobrados dispostos em fita, circundados por barreiras funcionais e visuais (muros), e habitados por população de classe alta. Para comparação, é selecionada uma sub-área (rua) nas proximidades de cada condomínio investigado, com características físico-espaciais similares às adjacentes aos condomínios, porém constituída por edificações tradicionais. Como método de coleta de dados são utilizadas técnicas da área de pesquisa ‘Ambiente Comportamento’: questionários, mapas mentais, observações de comportamento e de traços físicos, levantamentos físicos detalhados, e levantamentos de arquivo, como desenhos e demais dados coletados junto a órgãos públicos, incluindo o registro da ocorrência de crimes. Além da análise estatística não paramétrica dos dados quantitativos e da análise dos dados qualitativos, quanto ao seu significado e freqüência, é procedida a análise compositiva dos condomínios selecionados e sua relação com o espaço urbano, assim como a análise sintática das linhas representativas das ruas mais e menos integradas Os principais resultados demonstram que os condomínios horizontais fechados tendem a produzir ambientes residenciais que repercutem positivamente na satisfação de seus moradores, atendendo às suas expectativas. Assim, pode-se dizer que possuem bom desempenho interno, e que os pontos positivos centram-se em seu interior. Por outro lado, os condomínios investigados são usualmente percebidos como estruturas monótonas, o que repercute negativamente para a aparência das ruas que conformam. Ainda, a inexistência de conexões físicas entre o espaço público e o privado, tende a favorecer a ocorrência de determinados tipos de crimes, aumentar o sentimento de insegurança, além de diminuir a intensidade e simplificar o tipo de uso dos espaços públicos. Assim, os condomínios horizontais fechados tendem a impactar negativamente o espaço urbano
Resumo:
Foi realizado um experimento com o objetivo de avaliar relações crescentes de treonina para lisina digestível em dietas formuladas com base no conceito de proteína ideal. Para tal, alojou-se 1.600 frangos de corte machos Ross x Ross 308 em arranjo fatorial com 3 relações entre treonina e lisina digestível (0,635; 0,660 e 0,685) e 2 fontes de treonina suplementar (Farelo de Soja (FS) e L-Treonina sintética (L-Thr)) com dois tratamentos controle (positivo e negativo). Assim, o experimento contou com oito tratamentos e oito repetições de 25 aves. Os tratamentos com as respectivas relações treonina:lisina digestível (TLD) e fontes de treonina foram: T1 (controle positivo) com relação TLD de 0,700 (FS+L-Thr); T2 (controle negativo) com relação 0,610 (FS); T3 com relação 0,635 (FS+L-Thr); T4 com relação 0,660 (FS+LThr); T5 com relação 0,685 (FS+L-Thr); T6 com relação 0,635 (FS); T7 com relação 0,660 (FS) e T8 com relação TLD 0,685 (FS). Todas as dietas foram formuladas para apresentarem o mesmo nível mínimo de nutrientes e energia sem restrição para o nível de proteína bruta. Não houve efeito da suplementação de treonina sobre as características avaliadas. Conversão alimentar (P=0,0095) e consumo de água (P=0,0113) foram significativamente melhores para a proteína intacta (FS) comparativamente às dietas com suplementação dos 3 primeiros AA limitantes (L-Thr). Contudo, a característica rendimento de peito apresentou resultado superior (P=0,0351) para as dietas suplementadas com treonina sintética. Não foi observado efeito dos tratamentos sobre as demais respostas estudadas. Desta forma, a menor relação entre treonina e lisina digestível estudada, ou seja, 0,610, foi suficiente para atender as exigências para ótimo desempenho dos frangos de corte dos 15 aos 37 dias de idade. Todavia, para a característica rendimento de peito recomenda-se a relação TLD mínima de 0,635. Em virtude de as melhores respostas terem sido obtidas com as dietas cuja fonte de treonina foi exclusivamente o FS, atribui-se estas respostas ao maior conteúdo de aminoácidos menos limitantes e aminoácidos não-essenciais contidos nas referidas dietas.
Resumo:
O presente estudo trata da discussão de um novo modelo organizacional para a Perícia Criminal no qual seja possível a um só tempo, uma atuação integrada, harmônica e independente em relação à Investigação Policial, de modo a contribuir para alterar o modelo atual em que a Perícia Criminal atua apenas de forma limitada e pontual, para um modelo que permita um paralelismo entre esta e aquela, ressaltando a importância da aplicação da criminalística como ferramenta de excelência na investigação criminal e no combate à impunidade nos procedimentos investigatórios. Inicialmente, são apresentados o tema estudado seus objetivos, delimitação e relevância. Em seguida, é realizado um panorama de trabalhos anteriores relevantes para o tema aqui abordado, incluindo uma sintética exposição dos conceitos basilares da Criminalística e suas interrelações no Sistema de Justiça Criminal de modo a demonstrar o seu potencial no procedimento investigatório. É apresentada então a metodologia de pesquisa utilizada, para, em seguida, discutir-se a análise dos processos de investigação policial e perícia criminal e os resultados da pesquisa exploratória e sua análise, buscando-se identificar os problemas e propor mecanismos de melhoria do modelo organizacional. São apresentados também casos que envolvam áreas diversas do conhecimento pericial, em que se chegou a resultados efetivos graças à aplicação do modelo proposto. Ao final espera-se demonstrar que a implementação de um modelo organizacional em que haja paralelismo, integração e independência dos processos de investigação de campo e perícia técnica possibilitará uma otimização no desenvolvimento e no resultado da investigação criminal, o que contribuirá para uma maior eficiência do sistema de persecução penal e justiça criminal.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
Este relatório consolida os trabalhos de pesquisa, desenvolvidos entre abril de 2005 e abril de 2006, sobre o estado de adoção e oportunidades para uso de novas tecnologias de informação em processos de governo. A ampliação de fronteiras, para além dos limites tradicionais das organizações, traz uma nova e mais forte demanda por flexibilidade que possibilite o tratamento integrado de organismos de diferentes constituições, arquiteturas e processos operacionais, sem falar nos diferentes sistemas de informações. Isto é ainda mais importante nas organizações públicas. Por outro lado, uma das principais características negativas dos órgãos públicos é a morosidade e a burocracia nos processos administrativos e de atendimento ao cidadão. A falta de uma visão tecnológica moderna, isto é, a falta de um Plano Diretor de Tecnologia da Informação (PDTI) voltada para novas soluções, como é o caso do BPM, alinhada à falta de integração entre os sistemas e processos, faz com que muitos órgãos governamentais estejam caminhando na contramão do desenvolvimento tecnológico. Este projeto de pesquisa reveste-se, portanto, de alto interesse, pois focaliza as possibilidades e impactos da adoção das novas tecnologias orientadas a processos e web services (BPM - Business Process Management e BPMS - Business Process Management Systems) na área governamental, bastante desprovida de soluções integradas de serviços aos cidadãos e empresas. Estas novas tecnologias trazem paradigmas completamente diferentes dos até aqui adotados na implementação de sistemas de informações e automação de processos. Apesar das dificuldades inerentes ao tratamento de um tema complexo e novo, mais ainda em organismos governamentais, acreditamos ter desenvolvido um trabalho bastante aprofundado, atendendo aos objetivos estabelecidos no plano original, com os necessários acertos de rota e foco dos trabalhos. Cremos, também, que este trabalho estabelece uma referência relevante no conhecimento relacionados à melhoria de processos de governo, com base em novas tecnologias. Como sub-produtos planejados e realizados, inseridos no caderno de anexos a este relatório, estão conteúdos já desenvolvidos para a edição um ou dois livros sobre o tema, diversos artigos produzidos, além de diversos eventos realizados na EAESP, envolvendo o tema do projeto, que proporcionaram a oportunidade de excelentes trocas de experiências. Este relatório, apresentado de forma objetiva e sintética, focalizando somente os principais aspectos tratados, é complementado por um extenso conteúdo complementar, entregue em um caderno de Anexos.
Resumo:
This work aims to analyze the interaction and the effects of administered prices in the economy, through a DSGE model and the derivation of optimal monetary policies. The model used is a standard New Keynesian DSGE model of a closed economy with two sectors companies. In the first sector, free prices, there is a continuum of firms, and in the second sector of administered prices, there is a single firm. In addition, the model has positive trend inflation in the steady state. The model results suggest that price movements in any sector will impact on both sectors, for two reasons. Firstly, the price dispersion causes productivity to be lower. As the dispersion of prices is a change in the relative price of any sector, relative to general prices in the economy, when a movement in the price of a sector is not followed by another, their relative weights will change, leading to an impact on productivity in both sectors. Second, the path followed by the administered price sector is considered in future inflation expectations, which is used by companies in the free sector to adjust its optimal price. When this path leads to an expectation of higher inflation, the free sector companies will choose a higher mark-up to accommodate this expectation, thus leading to higher inflation trend when there is imperfect competition in the free sector. Finally, the analysis of optimal policies proved inconclusive, certainly indicating that there is influence of the adjustment model of administered prices in the definition of optimal monetary policy, but a quantitative study is needed to define the degree of impact.
Resumo:
Esta animação apresenta os conceitos de técnicas dedutivas a partir de um exemplo da derivação de uma conclusão lógica a partir de um conjunto de premissas. Alguns passos são exemplificados para se chegar ao objetivo. Dentre esses estão a aplicação da regra de Simplificação, da regra de Modus Tollens, da regra de Modus Penens e da regra de adição. Alguns conceitos também devem já ser entendidos como o a da dedução, da conclusão e do uso de axiomas. Aplicando todas essas regras em conjunto em determinadas etapas da resolução do problema encontra-se a solução por dedução a partir de premissas. Este material é indicado a alunos dos cursos de graduação em que se depararem com disciplinas que contém algum tipo de lógica matemática ou que necessitam da aplicação destas regras.
Resumo:
Capítulo 1 do Livro Noções de "Cálculo Diferencial e Integral para Tecnólogos"