41 resultados para fato mais importante e fato menos importante
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
As lagoas costeiras em geral exibem reduzidas profundidades máximas, sendo portanto, ambientes altamente vulneráveis às oscilações dos fatores climáticos, em particular o vento. Movimentos da água em zonas pelágicas são fortemente influenciados por mudanças no tempo, as quais promovem mudanças no plâncton. A biomassa é uma importante variável em ecossistemas aquáticos uma vez que representa a quantidade de energia estocada em certo nível trófico da comunidade biológica. O trabalho teve como hipótese principal do trabalho que o vento (principal fator determinante na hidrodinâmica da Lagoa Itapeva), influencia diretamente a biomassa fitoplanctônica. Períodos de ausência de ventos ou ventos fracos provocam uma homogeneidade da comunidade, devido á estabilidade da coluna d’água, propiciando eventos de florações com alta biomassa e baixa diversidade. Outra hipótese formulada é que há variação espaço-temporal da biomassa, da diversidade de espécies e das diferentes frações de tamanho na Lagoa Itapeva, no período estudado. O objetivo do trabalho foi determinar o efeito do vento, principal fator hidrodinâmico da Lagoa Itapeva, sobre a comunidade fitoplanctônica em termos de biomassa, diversidade de espécies e categorias de tamanho. A Lagoa Itapeva é a primeira lagoa do Sistema Lagunar de Tramandaí no sentido N→S. Foram realizadas análises espaciais, formando-se três pontos de amostragem (Norte, Centro e Sul) ao longo do maior eixo longitudinal da lagoa, aliada a uma escala temporal diária (turnos de amostragem: 6h, 10h, 14h e 18h) e sazonal (quatro estações do ano), procurando estabelecer padrões e relações com os fatores hidrodinâmicos (velocidade e direção de vento, e nível d’água). Durante o estudo a Divisão Cyanophyta foi a responsável pelos elevados valores de biomassa observados nos pontos de amostragem. Este fato deve-se principalmente às florações de Anabaena circinalis durante as campanhas sazonais. A biomassa foi a variável que melhor se relacionou com os fatores físicos (nível d’água e velocidade média do vento) pela ação dos ventos de quadrantes predominantes que resultavam num fetch efetivo longo. Neste estudo foram apresentados índices de diversidade de espécies calculados através de indivíduos (H’ind) e de biomassa (H’ biom). Estes índices apresentaram estreitas relações positivas entre si. Os índices também apresentaram relações diretas e significativas com os fatores físicos (nível d’água e velocidade média do vento). Na Lagoa Itapeva, a contribuição das diferentes categorias de tamanho em função da biomassa (estimada através do biovolume), ressaltou três frações que melhor representaram a comunidade fitoplanctônica: nanoplâncton, microplâncton e netplâncton. A fração netplanctônica predominou sobre as demais frações de tamanho. A predominância desta fração sobre as outras estudadas deu-se principalmente às espécies de colônias filamentosas Aulacoseira granulata, Anabaena circinalis e A. spiroides. O comportamento da comunidade fitoplanctônica na Lagoa Itapeva sugere estar de acordo com a Hipótese de Distúrbio Intermediário de Connell (1978). Os distúrbios intensos (provocados pelos forte ventos e fetch longo) ou a falta deste (criando um ambiente estável), nos pontos de amostragem, resultaram em florações da cianobactéria Anabaena circinalis. Essas florações proveram uma densa biomassa em todo o período da pesquisa, além de promoverem a baixa diversidade através do domínio desta cianobactéria, e provocar sucessões das frações de tamanho do fitoplâncton.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
A presente pesquisa constitui-se num estudo de caso sobre as influências do modelo cooperativista na me lhoria de vida dos associados de uma cooperativa de trabalho num ambiente competitivo. Entrevistas em profundidade forneceram os subsídios para a análise do caso estudado; as pessoas entrevistadas foram aquelas que constituem o quadro social da sociedade cooperativa analisada. Esta empresa do segmento cooperativo de trabalho está localizada na Fronteira Oeste do Rio Grande do Sul e vem destacando-se na região como uma empresa autogestionária mantenedora de um número importante de postos de trabalho no Município de Sant’Ana do Livramento. Constata-se que a sociedade-empresa estudada não tem um volume adequado de recursos financeiros (capital de giro) para produzir o montante de receitas compatível com a sua proposta empresarial e o tamanho do mercado, fator importante para o atendimento dos anseios sociais do grupo. A esta dificuldade, soma-se o fato de a empresa estar sendo gerida por pessoas com pouquíssima experiência administrativa. Apesar de enfrentar essas situações, a cooperativa está oportunizando a seus cooperados uma melhoria na condição de vida, principalmente, no que diz respeito ao reconhecimento da condição humana dos trabalhadores e à possibilidade de crescimento profissional que é permitida.
Resumo:
A ocorrência de alguns eventos na história recente mostrou ao mundo os riscos envolvidos nos processos de liquidação de transações financeiras e o potencial de que eventuais distúrbios nestes processos contaminem e desestabilizem os mercados financeiros e as economias em geral. Por serem utilizados como instrumento de transferência de recursos entre agentes econômicos, os sistemas de pagamentos são um importante canal de transmissão de turbulências entre os mercados e sistemas financeiros nacionais e internacionais. Como conseqüência, o aprimoramento de sistemas de pagamentos evoluiu internacionalmente e de forma significativa nos últimos anos podendo ser encarada como uma revolução na tecnologia e na rotina dos sistemas operacionais dos bancos. No Brasil, foi tão profundo quanto a reforma no Sistema Financeiro Nacional de 1964 e tão importante a ponto de colocar o país no mesmo nível dos países monetariamente mais desenvolvidos do mundo O objetivo central do presente estudo é o de analisar a capacidade que os novos sistemas de pagamentos tem em reduzir os riscos presentes nas transações financeiras. Para tanto, avaliam-se as crises financeiras internacionais recentes e sua relação com a instabilidade econômica; verifica-se o papel e a importância dos sistemas de pagamentos; identifica-se a forma pela qual os bancos centrais padronizaram os modelos adotados internacionalmente; avalia-se o Sistema de Pagamentos Brasileiro (SPB); e busca averiguar se a proposta do Banco Central de transferir o ônus de arcar com o risco sistêmico para os agentes participantes do sistema de fato ocorre. Conclui-se que os novos sistemas permitem anular os riscos presentes em sistemas de pagamentos e, por conseqüência, reduzir o risco sistêmico. Pelo fato de não mais aceitar saldos negativos nas contas de reservas bancárias em qualquer momento do dia e através da constituição de garantias, os eventuais riscos que surgem ficam restritos ao ambiente em que foram gerados. Palavras-chave: Sistemas de Pagamentos; Sistema de Pagamentos Brasileiro (SPB);Sistemas Operacionais Bancários; Sistemas Financeiros.
Resumo:
A indústria da construção civil é caracterizada por um elevado nível de desperdícios, baixa inovação tecnológica e gerencial, e baixa qualidade de seus produtos. Este fato traz à construção civil uma imagem de setor atrasado e, muitas vezes, causa a desmotivação de seus profissionais. Neste contexto, a aplicação de novos conceitos e princípios de gestão da produção, muitos deles oriundos da indústria automobilística, pode contribuir para a modernização da construção civil. Neste sentido, o processo de planejamento e controle da produção (PCP) tem um papel importante na aplicação dos novos conceitos de gestão da produção. O presente trabalho tem como objetivo geral propor diretrizes para a manutenção e o aperfeiçoamento do PCP em empresas construtoras, utilizando conceitos e princípios gerais de gestão da produção. A pesquisa foi realizada através de um estudo de caso em uma empresa construtora, sendo dividida em três etapas. Inicialmente, foi realizada uma análise no sistema de planejamento e controle da produção existente. Na segunda etapa, foram entrevistados diretores, gerentes de produção, representantes de clientes e fornecedores da empresa, e realizadas visitas e coleta de dados em obras. Além disso, realizou-se um estudo de caso mais aprofundado em uma das obras da empresa. Após, durante a terceira fase desta pesquisa, foram analisados os dados obtidos e propostas as diretrizes para a manutenção e o aperfeiçoamento do processo de PCP Entre as principais conclusões deste estudo, podem ser destacados os fatores que contribuíram para o sucesso da implementação do sistema de PCP: a existência de um sistema de gestão da qualidade baseado na norma ISO-9001, o papel desempenhado pelo coordenador do planejamento e as reuniões de aprendizagem semanal envolvendo todos os gerentes de produção. Observou-se também que o atendimento dos requisitos do cliente aumentou com a implementação do sistema de PCP.
Resumo:
A hiperprolinemia tipo II é uma doença autossômica recessiva causada pela deficiência severa na atividade da enzima ∆1 – pirrolino-5-carboxilato desidrogenase, o que resulta em acúmulo tecidual de prolina. Muitos pacientes apresentam manifestações neurológicas como epilepsia e retardo mental. Embora as manifestações neurológicas sejam encontradas em um considerável número de pacientes hiperprolinêmicos, os mecanismos pelos quais estas ocorrem são pouco compreendidos. O estresse oxidativo é um importante processo que vem sendo relatado na patogênese de algumas condições que afetam o sistema nervoso central (SNC), como é o caso das doenças neurodegenerativas, epilepsia e demência. Este fato torna-se facilmente compreensível, visto que o SNC é altamente sensível ao estresse oxidativo, em face do alto consumo de oxigênio; do alto conteúdo lipídico, principalmente de ácidos graxos poliinsaturados, dos altos níveis de ferro e da baixa defesa antioxidante. Considerando que: a) pouco se sabe a respeito dos altos níveis de prolina no SNC, b) a prolina ativa receptores NMDA e é epileptogênica e c) o estresse oxidativo está associado com doenças que afetam o SNC, no presente estudo investigamos os efeitos in vivo e in vitro da prolina sobre alguns parâmetros de estresse oxidativo, como a quimiluminescência, o potencial antioxidante total (TRAP), e sobre as atividades das enzimas antioxidantes catalase (CAT), glutationa peroxidase (GSH-Px) e superóxido dismutase (SOD) em córtex cerebral de ratos Wistar. Os resultados mostraram que a administração aguda de prolina aumentou significativamente a quimiluminescência e reduziu o TRAP em córtex cerebral de ratos de 10 e 29 dias. Em contraste, a administração crônica de prolina não alterou estes parâmetros. Todavia, a presença de prolina no homogeneizado de córtex cerebral de ratos de 10 e 29 dias aumentou significativamente a quimiluminescência e reduziu o TRAP em concentrações de prolina semelhantes àquelas encontradas nos tecidos de pacientes hiperprolinêmicos (0,5 – 1,0 mM). Nossos resultados também mostraram que a administração aguda de prolina não alterou as atividades das enzimas GSH-Px e SOD em córtex cerebral de ratos de 10 e 29 dias, mas diminuiu significativamente a atividade da CAT em ratos de 29 dias. Por outro lado, a administração crônica de prolina não alterou a atividade da enzima SOD, mas significativamente aumentou a atividade da CAT e reduziu a atividade da GSH-Px. Em adição, a presença de prolina no homogeneizado de córtex cerebral reduziu significativamente a atividade da SOD em ratos de 10 dias, permanecendo as atividades da CAT e GSH-Px inalteradas. Todavia, as atividades das enzimas antioxidantes não foram alteradas na presença de prolina no homogeneizado de córtex cerebral de ratos de 29 dias. Os resultados obtidos em nosso trabalho sugerem que o estresse oxidativo induzido pela prolina pode estar envolvido na disfunção cerebral observada na hiperprolinemia tipo II.
Resumo:
Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.
Resumo:
Este trabalho analisa o Fórum Social Mundial em sua primeira edição, destacando o seu importante papel como o “movimento dos movimentos”, unindo em um processo, e não apenas em eventos, os mais distintos movimentos sociais e ONGs. Partindo-se do binômio unidade/pluralidade, o objetivo é buscar o que lhe dá unicidade e também pluralidade. Para se buscar um sentido geral é preciso encontrar seu princípio unificador que o torna aquilo que ele é. Ao mesmo tempo, uma característica fundamental do Fórum Social Mundial é sua pluralidade de idéias, espaços, propostas, a negação do consenso, caracterizando um evento amplamente democrático, no sentido de liberdade de discussão sem uma imposição de unidade, ainda que respeitando seu princípio unificador. Para o trabalho foram analisados os conteúdos disponíveis das conferências e também foi feita uma classificação das oficinas por temáticas, com a finalidade de visualizar os pontos comuns e as divergências e pluralidade existentes na primeira edição do Fórum Social Mundial. Pode-se concluir que, de fato há um princípio unificador, que é a oposição ao modelo dominante de globalização e a pluralidade é formada a partir das mais diversas áreas e perspectivas que discutem alternativas para “um Outro Mundo Possível”.
Resumo:
As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
A fertilidade das vacas com cria ao pé é uma característica importante para os sistemas de produção de bovinos de corte. Considerando esse fato, o alvo deste estudo foi avaliar a fertilidade pós-parto de vacas de corte, submetidas a diferentes condições de: aleitamento, suplementação hormonal, condição corporal, período pós-parto e estação de acasalamento. Com esses objetivos foram efetuados quatro experimentos, avaliando o efeito da suplementação com progestágeno na fertilidade de vacas de corte paridas no outono e desmamadas entre 45 - 75 dias pós-parto; o momento da suplementação com progestágeno em vacas de corte paridas na primavera e desmamadas entre 60 - 81 dias pós-parto; a suplementação com progestágeno associada à desmame total e parcial em função da condição corporal aos 60-81 dias pós-parto e a eficiência do desmame temporário ou aleitamento uma vez ao dia em vacas de corte submetidas a suplementação com progestágeno. Foram analisados dados de freqüência de manifestação de cios e de prenhez nos quatro experimentos. Os resultados obtidos indicaram que: a suplementação com progestágeno não melhorou a fertilidade de vacas de corte paridas no outono e desmamadas entre 45 – 75 dias pós-parto, o fator fundamental na fertilidade de vacas paridas no outono foi a condição corporal que deve ser no mínimo CC4 (numa escala de 1-5); a suplementação com progestágeno em vacas de corte paridas na primavera e desmamadas entre 60 – 81 dias pós-parto viabiliza o uso da inseminação artificial e contribui para a obtenção de bons resultados reprodutivos em vacas com CC igual ou superior a CC3; a suplementação com progestágeno associada a desmame durante 96 horas em vacas com => CC3 é uma alternativa viável para incrementar a taxa de prenhez após monta natural ou inseminação artificial em vacas com cria ao pé; é possível inferir que a eficiência reprodutiva de vacas de corte pós-parto submetidas a suplementação com progestágeno e desmame temporário ou aleitamento uma vez ao dia tenham desempenho semelhante, porém são necessários outros estudos. De um modo geral os experimentos efetuados sugerem que é necessário estabelecer um equilíbrio entre oferta e demanda forrageira, ao longo do ano, que possibilite uma máxima percentagem de vacas em CC adequada no começo do serviço, considerando a época de acasalamento, momento pós-parto, suplementação hormonal além da modalidade de desmame, visando a obtenção da máxima produção de kg de carne/superfície/tempo e considerando as condições de ambiente.
Resumo:
The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.
Resumo:
Os objetivos da presente tese de doutorado foram os de buscar novos antipsicóticos atípicos de baixo preço comercial e também procurar entender o mecanismo de ação que leva a um perfil antipsicótico atípico. Os resultados da tese são divididos em duas partes, de acordo com sua natureza, em experimentais (primeira parte) e teóricos (segunda parte). Para o desenvolvimento da primeira parte, foi necessária primeiramente a programação de um software para medir locomoção em roedores após filmagem com webcam. A seguir, foram investigados os efeitos da guanosina, flunarizina e cinarizina em modelos animais de psicose, bem como em outros paradigmas comportamentais. A guanosina foi escolhida para estudo uma vez que tem se mostrado que ela interage com o sistema glutamatérgico – que sabidamente está envolvido na fisiopatologia da esquizofrenia – promovendo a captação astrocitária de glutamato. Já a flunarizina e a cinarizina, dois bloqueadores de canal de cálcio empregados para tratar enxaqueca e vertigem foram escolhidas pelo fato delas produzirem sinais e sintomas extrapiramidais em pacientes idosos, o que posteriormente foi relacionado às suas propriedades como antagonistas moderados dos receptores dopaminérgicos do tipo D2 A guanosina diminuiu o aumento de locomoção induzido por um antagonista NMDA (MK-801), enquanto que não apresentou efeito sobre o aumento de locomoção induzido por anfetamina, de forma que sua utilidade como potencial antipsicótico deve ser ainda melhor estudada. Tanto a flunarizina quanto a cinarizina foram capazes de diminuir o aumento de locomoção induzido por MK-801 e por anfetamina em doses que não causam efeitos catalépticos importantes. Portanto, foi concluído que estes dois compostos apresentam um potencial perfil de antipsicótico atípico, com as vantagens de já estarem disponíveis para uso comercial, boa tolerabilidade e baixo custo quando comparados com os antipsicóticos atípicos disponíveis comercial. A segunda parte da tese apresenta alguns resultados teóricos matemáticos que podem ser derivados da teoria da lei de ação das massas aplicada ao binding de receptores, utilizando também resultados experimentais já conhecidos de PET Estes resultados apresentam insights ao entendimento das diferenças entre os perfis antipsicóticos atípicos e típicos em relação à geração de sinais extrapiramidais. É discutido que fatores culturais e comerciais relacionados à posologia atual empregada no tratamento com antipsicóticos típicos podem ser os responsáveis pelas diferenças de perfis, uma vez que alguns deles são prescritos em doses proporcionalmente maiores em relação à sua afinidade, atingindo assim maiores níveis de bloqueio dopaminérgico no estriado. Uma curta meia-vida plasmática também é apontada como um possível parâmetro importante na geração de um perfil atípico. É mostrado ainda alguns erros de concepção relacionados ao curso temporal da ocupação dopaminérgica que tem sido atualmente cometidos na literatura científica, como o conceito de meia-vida de ocupação de receptores. Como um último resultado teórico, é proposto um algoritmo para a redução de dose em pacientes tratados com antipsicóticos apresentando sinais e sintomas extrapiramidais.
Resumo:
Nucleotídeos extracelulares (ATP, ADP, AMP) e seu derivado adenosina são conhecidos sinalizadores do sistema cardiovascular podendo mediar vários processos fisiológicos entre eles a proliferação celular, agregação plaquetária, inflamação e o tônus vascular. Os níveis destas substâncias, localmente e na circulação sanguínea, são controlados pelas ecto-NTPDases em conjunto com a ecto-5’nucleotidase (ecto-5’-NT) que realizam a degradação completa do ATP até adenosina. Os hormônios tireoideanos tiroxina (T4) e triiodotironina (T3) e o hormônio esteróide sexual estradiol (E2) atuam ativamente no sistema vascular promovendo vasodilatação. Nosso objetivo foi investigar quais enzimas da família das NTPDases estão presente em células musculares lisas vasculares (CMLVs) e se a atividade destas enzimas pode ser influenciada pela ação desses hormônios, uma vez que seus substratos e produtos podem sinalizar processos de relaxamento/contração muscular. Para tanto, as CMLVs foram extraídas da artéria aorta de ratos Wistar adultos e cultivadas em meio de cultura DMEM. Após atingirem a confluência, as células foram tratadas com 50 nM de T3 ou T4 ou 1M de 17-estradiol por 72 horas. As atividades enzimáticas foram medidas pela liberação de fosfato inorgânico enquanto que a expressão das ectonucleotidases foi verificada por imunocitoquímica (proteína) e RT-PCR (RNAm). Os resultados deste trabalho mostram que as CMLVs expressam as NTPDases 1, 2, 3, 5 e 6 e a ecto-5’-NT, responsáveis pelo controle dos níveis de nucleotídeos e nucleosídeos extracelulares. O tratamento com os hormônios T3, T4 e E2 nestas células mostrou que a atividade da ecto-5’-NT foi aumentada pelos três hormônios. A análise do RT-PCR demonstrou que os tratamentos foram capazes de aumentar também a quantidade de RNAm da ecto-5’NT, indicando mecanismos de ação genômica dos hormônios estudados. Por outro lado, O tratamento com os hormônios tireoideos não alterou as atividades ATPásica e ADPásica, somente o estradiol foi capaz de aumentar a atividade ATPásica. Estes resultados também sugerem que, pela hidrólise aumentada do AMP, disponibilizem-se níveis maiores de adenosina, com importante potencial vasodilatador local. Entretanto, o fato de o estradiol ter aumentado a hidrólise de ATP, mas não a de ADP, nos permite pensar que o ADP, agregador plaquetário bem estabelecido, possa estar acumulando extracelularmente, contribuindo para o desenvolvimento de problemas circulatórios.