998 resultados para Complexos cúmulus-oócitos
Resumo:
A Tecnologia da Informação (TI) tem sido utilizada intensamente pelas organizações contribuindo para maior eficiência, inovação, redesenho dos processos de negócio, comunicação e integração, internamente e com fornecedores e clientes. Apesar destas contribuições serem percebidas, existem muitas variáveis a serem consideradas para que se obtenham os benefícios oferecidos pela TI e isto torna o processo de decisão do investimento e o acompanhamento dos resultados obtidos muito complexos. Este trabalho tem como objetivos principais confirmar que é possível vincular os benefícios oferecidos pelo uso da TI com os indicadores de desempenho empresarial e buscar um modelo que consiga tanto dar subsídios para o processo de tomada de decisão de investimentos em TI quanto acompanhar os resultados obtidos pelo uso de TI após sua implementação. Será apresentado um estudo de caso realizado em uma empresa de serviços de consultoria, onde serão analisados dois projetos de aplicação do uso de TI. Existe interesse acadêmico para as questões levantadas neste trabalho porque existem muitos estudos e pesquisas realizados com objetivos similares mas que não conseguiram estruturar de forma definitiva uma metodologia consistente para esta relação. Este estudo deverá ser útil também para as empresas que normalmente se vêem pressionadas a adotar uma nova tecnologia sem ter uma análise clara do retorno esperado para este investimento. Empresas de consultoria especializadas em soluções de TI e os fornecedores de soluções de TI também terão especial interesse neste trabalho porque poderão utilizar os conceitos e reflexões desenvolvidos em seus processos comerciais.
Resumo:
O presente estudo teve como objetivo avaliar as modificações que ocorreram no ecossistema aquático pela transformação rio-reservatório devido à construção e operação da barragem Dona Francisca. Amostras sazonais foram coletadas para avaliar características físicas e químicas ao longo de dois anos em nove estações amostrais na área correspondente ao reservatório da Dona Francisca, compreendendo quatro períodos de amostragem antes da formação do reservatório e quatro períodos depois da formação do reservatório, totalizando 8 períodos. No Capítulo 1 são apresentadas as bases teóricas sobre reservatório como ecossistemas complexos e compartimentalisados. O capítulo dois corresponde ao estudo experimental dos processos de estratificação e circulação baseado nos perfis verticais de temperatura, oxigênio dissolvido, condutividade elétrica e pH. No Capítulo 3 são comparados os padrões espaciais e temporais através da análise de alguns características físicas e químicas em duas fases, sendo uma compreendendo um ano antes de reservatório e outra compreendendo um ano depois da formação do reservatório. Por último, no Capítulo 4 é apresenteda uma análise integrada das características físicas e químicas da água usando análise multivariada (agrupamento e ordenação). Os resultados demonstraram que houve alterações das características limnológicas tanto no espaço como no tempo. As alterações compreendem mudanças nos padrões de fluxo unidirecional da antiga condição de rio para padrões anuais com períodos de estratificação com formação de termoclina no verão, deslocamento de massas de água sem homogeneizaçãi da coluna de água no outono e circulação com homogeneisação da coluna de água no inverno e primavera. Tais padrões variaram nas diferentes reggiões do reservatório, e conduziram à classificação do reservatório Dona Francisca como monomítico quente. A zonação em três regiões distintas baseada no gradiente longitudinal causado pela pressaão da cunha fluvial do rio principal, e a formação de remansos são fenômenos comuns à maioria dos reservatórios sendo também constatados no reservatório dona Francisca. As mudanças constatadas resultaram em processos de precipitação e sedimentação de materiais como ferro, manganês e sólidos suspensos, os quais eram carregados rio abaixo antes da formação do reservatório. Além disso, foram registradas mudanças no balanço térmico e químico, como o aumento da temperatur e a diminuição do oxigênio dissolvido devido ao aumento do tempo de residência. Também ocorreu aumento gradual da acidez e demanda química de oxigênio causada pela decomposição da vegetação submersa.
Resumo:
O objetivo deste trabalho é estudar os fatores que influenciam a qualidade de aprendizagem e a eficácia em grupos. Os grupos de trabalho são aqui considerados sistemas sociais complexos e o estudo aqui desenvolvido parte da premissa de que é na inter-relação de fatores estruturais, cognitivos e interpessoais que se pode explicar a qualidade da aprendizagem e o nível de eficácia de um grupo. Este trabalho enfatiza a importância de se utilizar raciocínio sistêmico para o entendimento de sistemas complexos e constrói um modelo conceitual de Dinâmica de Sistemas, partindo de uma ampla revisão da literatura – de teorias de aprendizagem individual, em grupos e organizacional, de teorias da eficácia e de teorias sobre grupos – e de três estudos de caso. Ao final do trabalho, um modelo genérico qualitativo é oferecido aos interessados em uma análise sistêmica das complexidades que envolvem o processo de aprendizagem e a eficácia em grupos de trabalho.
Resumo:
Tradicionalmente o processo de desenvolvimento do produto (PDP) tem sido realizado através do cumprimento seqüencial de metas relacionadas a fases segmentadas. Entretanto, o aumento da complexidade dos produtos e dos processos, observado nas últimas décadas, tem exigido das empresas a modificação da forma de conduzir esse processo. Neste contexto, o atendimento rápido e eficaz às solicitações de mercado tem sido considerado essencial ao sucesso das empresas nos mais variados setores. Em resposta às novas demandas, muitas empresas passaram a utilizar práticas relacionadas à organização simultânea do desenvolvimento do produto, as quais são amplamente conhecidas como engenharia simultânea (ES). Da sua parte, a comunidade acadêmica tem procurado entender este novo processo, através da busca de um novo referencial teórico. A partir dessas novas abordagens vários trabalhos têm sido desenvolvidos no sentido de contribuir para a melhoria do PDP. Entretanto, um assunto pouco investigado é o planejamento e controle desse processo Assim, o objetivo deste trabalho consiste em propor um conjunto de diretrizes para a integração do planejamento e controle dos processos de projeto e produção na construção civil, para empreendimentos complexos, rápidos e com elevado grau de incerteza. O método de pesquisa envolveu a realização de quatro estudos de caso em uma empresa construtora de Porto Alegre, que atua no mercado de edificações industriais, comerciais e hospitalares para clientes privados. Esses estudos tiveram empreendimentos de construção civil como objeto de análise. A integração do planejamento e controle do PDP foi a unidade de análise. O estudo constatou que a integração do planejamento e controle integrado dos processos de projeto e produção é viável e essencial à redução de perdas no PDP. Para este fim, podem ser utilizados métodos e ferramentas simples para o planejamento e controle do processo de projeto ao longo do PDP. Como contribuições conceituais, este trabalho possibilitou o melhor conhecimento da natureza do processo de projeto no que diz respeito ao estabelecimento de planos de projeto.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.
Resumo:
O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.
Resumo:
O acoplamento de radiação óptica em sistemas multicamadas tem sido objeto de diversas pesquisas, não somente acadêmicas, mas também para aplicações industriais, tanto na área de sensores ópticos, como na de processadores ópticos e na de comunicações ópticas. Existe uma variedade de técnicas que são exploradas nestes estudos. Nesta tese, focalizamos nossa atenção no acoplamento de radiação laser ou mesmo de luz branca incoerente a um filme tipo multicamadas e estudamos os mecanismos físicos que governam as reflexões e as perdas por absorção nas multicamadas, efeitos que normalmente não parecem quando a incidência ocorre diretamente do ar para o filme. A técnica que exploramos é conhecida como reflexão interna total atenuada, ATR. A presença de um filme fino metálico permite o estudo experimental de plasmons de superfície e do acoplamento a modos guiados do sistema multicamadas. Além dos estudos experimentais, apresentamos um cálculo teórico iterativo para a refletividade dos filmes do tipo multicamadas para um número qualquer de camadas, que apresenta vantagens computacionais no ajuste dos dados experimentais ou em simulações. Esta contribuição não necessita as aproximações encontradas em um grande número de trabalhos que envolvem sistemas mais simples. Apresentamos também o cálculo do fluxo de energia dentro de cada camada individual do sistema, o que nos permite determinar o tipo de modo acoplado e a sua localização. O método foi aplicado a diversos sistemas, quando uma das camadas foi modificada. Estes estudos foram realizados como função do ângulo de incidência e do comprimento de onda da radiação incidente para uma variedade de sistemas multicamadas. Nossa simulação teórica se mostra bastante adequada e útil para a projeção de sistemas multicamadas complexos com camadas metálicas e dielétricas para sensores óticos.
Resumo:
Neste trabalho, estudamos a posição de átomos de F na estrutura cristalina do Si. As amostras foram pré-amorfizadas utilizando um feixe de Si de 200 keV e, após, implantadas com F. Então recristalizamos a camada amorfa através do processo de Epitaxia de Fase Sólida (EFS). Empregamos as técnicas de Espectrometria de Retroespalhamento Rutherford, na condição de canalização iônica, e de Análise por Reação Nuclear (NRA), através da reação ressonante ( ) O p F 16 19 , αγ , à 5 , 340 keV, para determinar a posição dos átomos de F e, depois, reproduzimos os resultados experimentais através do programa de simulação computacional chamado Simulação Adaptada de Canalização de Íons Rápidos em Sólidos (CASSIS - Channeling Adapted Simulation of Swift Ions in Solids). Os resultados obtidos apontam para duas possíveis combinações lineares distintas de sítios. Uma delas concorda com a proposta teórica de Hirose et al. (Materials Science & Engineering B – 91-92, 148, 2002), para uma condição experimental similar. Nessa configuração, os átomos de F estão na forma de complexos entre átomos de flúor e vacâncias (F-V). A outra combinação ainda não foi proposta na literatura e também pode ser pensada como um tipo de complexo F-V.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.
Resumo:
Para avaliar associação entre infarto do miocárdio e a presença no eletrocardiograma de extra-sístoles supraventriculares ou ventriculares com morfologia QR, foi realizado um estudo de caso-controle aninhado em um estudo transversal. No período de janeiro de 2000 a maio de 2004 foram realizados 6244 exames de cateterismo cardíaco na Unidade de Hemodinâmica do Serviço de Cardiologia do Hospital de Clínicas de Porto Alegre. Deste grupo foram selecionados 35 pacientes com infarto do miocárdio (IM) e 11 sem IM, sendo que destes 46 pacientes 33 já apresentavam extra-sístoles espontaneamente e os outros 13 tiveram suas extra-sístoles obtidas em estimulação elétrica programada. Deste modo, nosso estudo constitui-se 35 casos de IM com extra-sistoles espontâneas ou provocadas e 11 controles sem IM. Com extra-sistolia (espontânea ou provocada). Os traçados eletrocardiográficos foram estudados, e observaram-se, quais os pacientes que apresentaram nas extra-sístoles morfologia tipo QR (QRS, QRs, Qrs) com duração maior ou igual a 0,04 segundos, considerando-se este sinal como positivo para IM. A utilização do eletrocardiograma em ritmo sinusal para o diagnóstico de IM em nosso estudo levou a uma estimativa de sensibilidade em torno de 86% e uma especificidade de 91%.Como conseqüência direta destes achados, temos que do ponto de vista do eletrocardiograma em ritmo sinusal havia 31 pacientes supostamente com IM e 15 livres do desfecho. Não obstante, dos 31 supostos pacientes com IM, 30 eram verdadeiros positivos e 1 falso negativo. Por outro lado, dos 15 pacientes supostamente sem IM, havia 5 falsos negativos e 10 verdadeiramente negativos. Tomando o grupo de pacientes supostamente livres de IM, como foco de ação corretiva para diagnóstico do ECG em ritmo sinusal, tem-se a necessidade de reverter uma taxa de falsos negativos de 14% Aplicando-se os critérios diagnósticos de IM no ECG obtido em extra-sístoles verifica-se que, apesar de ocorrer uma queda na especificidade, temos uma estimativa de sensibilidade em torno de 100%. Assim, a utilização combinada do ECG em extra-sístoles seguindo o ECG em ritmo sinusal promove a redução da taxa de falsos negativos de 14% para 0% enquanto que enquanto que a proporção de falsos positivos ficou em torno de 27%. Desta forma, a análise da morfologia das extra-sístoles supraventriculares e ventriculares podem ser de utilidade no diagnóstico de IM quando a morfologia dos batimentos sinusais é não diagnostica
Resumo:
O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.
Resumo:
Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.