999 resultados para Laboratórios abertos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi realizado com o objetivo de conhecer e analisar como o Núcleo de Tecnologia Educacional de Terra Nova do Norte está capacitando os professores da rede pública de ensino em Informática da Educação; como essa capacitação é construída nos Laboratórios de Informática nas escolas; e como os professores estão fazendo uso do computador como ferramenta pedagógica. Pretendemos determinar quais são as dificuldades encontradas nesse tipo de capacitação, estabelecendo quais as reais perspectivas dos educadores e dos alunos do ensino fundamental; à luz dos resultados, elaboraremos um conjunto de sugestões com o intuito de melhorar o nível de qualidade de atuação dos envolvidos com tecnologia da informação e da comunicação. Além disso visitamos os núcleos de: Cuiabá, Cáceres, Diamantino, Nova Xavantina, Sinop e Terra Nova do Norte; os Laboratórios de Informática nos municípios de: Terra Nova do Norte, Colider, Itaúba, Claudia, Marcelândia, Feliz Natal e Sinop. Também visitamos os professores de sala de aula que atuam no Ensino Fundamental nessas escolas. Com dificuldades financeiras, sem meios de transporte próprio, com falta de pessoal técnico e especializado e com acumulo de funções e, conseqüentemente, sobrecarga de atividades, o Núcleo de Tecnologia Educacional de Terra Nova do Norte, através de seus especialistas, vem realizando um trabalho exaustivo, mas sem perspectiva: os cursos de capacitação relâmpagos não preparam os professores nem para funções elementares, muitos menos para funções complexas Para esses cursos, deve-se conceber uma carga horária mínima de 100 (Cem) horas/aula, resguardando a relação indissociável entre teoria e prática. A capacitação dos professores multiplicadores, que ainda acontece em nível básico, é a grande dificuldade que os especialistas do núcleo estão encontrando nesse processo, pois não há como dar uma boa capacitação em informática educacional se a maioria dos professores nunca sentaram em frente a um computador. Há necessidade de se rever com muito carinho esse processo de informatização das escolas públicas, tanto na dimensão epistemológica quanto na profissionalização. Há um grande compromisso e força de vontade do pessoal das escolas e dos núcleos, o que nos leva a afirmar que, se não fosse pela tenacidade desses professores o programa já estaria em fase terminal. O programa, portanto, necessita de mais apoio e de investimento em suas potencialidades técnica e pedagógica, pois do modo como está, pouco contribui para a democratização e a melhoria do ensino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve de uma fonna geral a proposta de uma estratégia para controle e supervisão de plantas industriais através da Internet. Tal proposta consiste na apresentação de três contextos distintos: o contexto planta industrial, o contexto servidor e o contexto cliente. O levantamento criterioso de requisitos para cada um dos contextos é apresentado. A união entre as tecnologias Web e os barramentos de campo resultam naturalmente no acesso remoto através da Internet a sistemas de automação industrial, sendo assim, surge uma nova tendência em tennos de supervisão e controle. A motivação para este trabalho surgiu através de alguns estudos de casos presentes na literatura, que disponibilizam laboratórios através da Internet. A maioria destes estudos de caso não possuía os requisitos considerados primordiais para a disponibilização de um processo através da Internet, como por exemplo, a independência de platafonna no lado cliente e um processo de escala industrial no contexto planta industrial. A estratégia proposta tem por objetivo suprir as carências apresentadas pela maioria dos centros de ensino e pesquisa que disponibilizam laboratórios através da Internet. Para validar a estratégia proposta, foi desenvolvido um sistema de acesso remoto no DELET da UFRGS que é constituído de uma Planta Piloto Foundation Fieldbus e sua posterior disponibilização para a Internet Neste trabalho é apresentada sua fundamentação teórica, sua aplicabilidade na área de automação industrial e controle, baseando-se no protocolo de comunicação industrial, o Foundation Fieldbus; descreve-se também como é feito o interfaceamento entre softwares de controle da Planta Piloto e o sistema de supervisão e controle indo até a estrutura de comunicação com a Internet para que se tome possível para o cliente da Internet visualizar e interagir com a Planta Piloto. Configuração de hardware e software e vários outros conceitos ligados às ferramentas utilizadas neste sistema também são abordados neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o estudo da distribuição de extinção na Galáxia e nas Nuvens de Magalhães é feito através da análise dos mapas de avermelhamento derivados da emissão 100f-Lmda poeira E(B- V)FIR de Schlegel et ai. (1998). Comparamos valores de avermelhamento E(B- V)FIR com os derivados do conteúdo estelar de 103 aglomerados abertos velhos e 150 aglomerados globulares da Galáxia. As diferenças entre os dois avermelhamentos, quando significativas, ocorrem principalmente em baixas latitudes galáticas, no sentido de que os valores E(B-V)FIR são mais altos devido à contribuição do fluxo 100f-Lmda poeira que se encontra atrás dos aglomerados. As diferenças também podem surgir por um valor de E(B-V)FIR superestimado devido aos grãos de poeira terem temperatura T> 21 K o que parece ocorrer principalmente na direção do Centro da Galáxia. Construímos um catálogo geral de nebulosas escuras unificando 15 catálogos da literatura reunindo~ 6300 itens. Após cruzamentos, o catálogo unificado contém 4956 nebulosas escuras. Medimos valores de E(B-V)PIR no centro destas nebulosas escuras e amostramos seus arredores. Encontramos contraste preferencialmente para nebulosas escuras a médias e altas latitudes galáticas. Nebulosas escuras próximas ao Plano Galático apresentam flutuações maiores nos valores de E(B- V)FIR nos arredores, devido às contribuições de densidade de coluna de poeira das nebulosas e meio difuso acumulados em profundidade ao longo da linha de visada. Utilizamos a fotometria JHKs do 2MASS para obter mapas de extinção em regiões candidatas a regiões de baixa extinção (janelas) na direção do Bojo Galático Confirmamos a existência das janelas e encontramos uma grande semelhança entre os mapas de extinção na banda K derivados a partir do conteúdo estelar e os derivados da emissão da poeira. Tal semelhança na distribuição do avermelhamento nos mapas se deve à maior parte das nuvens de poeira estar localizada entre nós e as estrelas do Bojo. Realizamos a busca de aglomerados infravermelhos jovens compactos (semelhantes aos aglomerados Arches e Quintuplet) próximo ao Centro Galático utilizando o Atlas de imagens JHKs do 2MASS. Encontramos 58 candidatos a aglomerados, importantes alvos para grande telescópios. Nas direções das Nuvens de Magalhães, testamos os valores de E(B- V)FIR nas linhas de visada de galáxias de fundo comparando esses valores com os avermelhamentos derivados através dos espectros observados das galáxias. A obtenção do avermelhamento foi feita comparando a distribuição de contínuo dos espectros das galáxias observadas na direção das Nuvens com o contínuo de espectros médios de semelhante população estelar (formados por galáxias em altas latitudes galáticas) corrigidos por extinção . O avermelhamento foi derivado para 36 galáxias projetadas sobre as Nuvens de Magalhães e obtivemos um avermelhamento médio total (galático + interno) de E(B-V) = 0.12 para a Grande Nuvem e E(B-V) = 0.05 para Pequena Nuvem, sendo o avermelhamento interno estimado em E(B- V)i = 0.06 e E(B- V)i = 0.04 para Grande e Pequena Nuvem respectivamente. Para 86 % da amostra obtivemos uma boa concordância entre os valores de avermelhamento espectroscópicos e os derivados da emissão da poeira Os casos de diferenças significativas foram interpretados como devidos à distribuição de poeira ter uma escala menor que a resolução dos mapas de avermelhamento E(B-V)FIR ou ao superaquecimento da poeira, como ocorre principalmente na direção do Centro Galático. As presentes análises da extinção através da Galáxia e das Nuvens de Magalhães fornecem evidências da importância, utilidade e algumas limitações dos mapas de poeira de Schlegel et aI. (1998) para estudos galáticos e extragaláticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo busca a compreensão de uma rede social através da Teoria dos Sistemas Vivos. Por sistema vivo entende-se aquele que, mantendo sua organização distinta por um observador (identidade sistêmica), realiza câmbios em sua estrutura (elementos constituintes) no processo de produção de si mesmo (autopoiese). Por serem abertos ao fluxo de matéria e energia, os sistemas autopoiéticos realizam seus câmbios estruturais a partir de interações com outros sistemas, ou acoplamentos estruturais. É feita uma breve contextualização teórica a respeito das descobertas da física contemporânea até a noção de redes autopoiéticas seu uso na psicologia social e institucional. Foi escolhida como objeto de estudo a Rede Integrada de Serviços do Bairro Restinga, em Porto Alegre, através da observação de suas reuniões (diários de campo) e transcrições de suas atas, bem como documentos enviados pela e para a Rede como sistema. São analisados três momentos de sua autopoiese: sua constituição como espaço aberto e múltiplo, seus movimentos com fins organizativos (auto-regulação) e um acoplamento com outro sistema. Por fim, discute-se a importância da pesquisa, pela sua integração entre a teoria dos sistemas vivos e a possibilidade de uma nova sociedade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao partir de discussões que tomam como eixo central a temática da diferença na educação, a presente Dissertação busca problematizar o multiculturalismo e a retórica da diversidade cultural em suas “respostas” ao problema da diferença, bem como suas formas de “entrada” na educação. Situando a Revista Nova Escola – corpus de estudo desta pesquisa – no campo das pedagogias culturais e suas conexões com o currículo, analisa a produção cultural, os modos de ver e de narrar as diferenças, e os processos de produção/interação entre a revista e seu público leitor, estabelecendo, para tanto, uma articulação entre a política e a poética do texto cultural. Os aportes teóricos da pesquisa partem das contribuições dos Estudos Culturais, do Pós-Colonialismo e de autores/as que transitam por diversas teorias da diferença na educação, onde se busca dialogar sobre multiculturalismo, identidade, diferença, alteridade, cultura, currículo, pedagogias culturais, texto, discurso, imagem. As análises da pesquisa apontam percepções amplamente ambíguas a respeito da presença/ausência do outro na revista: por um lado, as imagens e narrativas do outro aparecem como invenções e fabricações culturais e discursivas instituídas a partir de determinados espaços de “referência” e/ou “normalidade”; por outro lado, tais invenções se mostram permanentemente perturbadas pela presença do outro na revista que emerge como linguagem outra e/ou de resistência. Ao finalizar, aponta a existência de uma multiplicidade de modos de produzir e nomear os “diferentes” na revista, ressaltando-se que essa produção não acontece independente de complexos jogos de poder e espaços de disputas em torno de significados e modos de ver, os quais precisam estar sempre abertos a incertezas e negociações. Tal reconhecimento torna possível, portanto, pensar as diferenças culturais para além das rígidas dicotomias entre identidade/diferença, eu/outro, nós/eles, norma/desvio... que freqüentemente povoam o pensamento educacional moderno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reciclagem de resíduos apresenta-se como uma alternativa adequada com relação à preservação dos recursos naturais e do meio ambiente. As escórias de aciaria são resíduos siderúrgicos originados na fabricação do aço, e são geradas em grandes quantidades. Estes resíduos são estocados nos pátios siderúrgicos, onde permanecem, na sua maioria, sem qualquer destino. Normalmente, as escórias de aciaria são volumetricamente instáveis, apresentando características expansivas, e por esta razão, a aplicação das mesmas em materiais de construção torna-se restrita. Esta pesquisa tem como objetivo estudar a viabilidade técnica do uso das escórias de aciaria LD como adição em cimentos, propondo um método de estabilização por meio de granulação por resfriamento brusco destas escórias, buscando, desta forma, a eliminação do fenômeno da expansão, e visando a melhoria das características destes resíduos. No processo de estabilização, a escória líquida foi granulada em uma usina siderúrgica. Estudos complementares de granulação foram realizados nos laboratórios da UFRGS, empregando-se escórias refundidas. A granulação por resfriamento brusco favoreceu a redução do CaOlivre, a eliminação do MgO na forma de periclásio, e a eliminação do bC2S das escórias, considerados agentes causadores da expansão. No entanto, a elevada basicidade da escória LD dificulta a formação da estrutura vítrea e a separação da fração metálica após o resfriamento brusco. Foram realizados ensaios de expansão das escórias, atividade pozolânica, e resistência mecânica de argamassas com escórias granuladas. O resfriamento brusco proporcionou a eliminação da expansão e o desenvolvimento das propriedades pozolânicas/cimentícias da escória granulada. Como adição em cimentos, do ponto de vista da resistência mecânica, as argamassas compostas com escórias granuladas e clínquer apresentaram níveis de resistência à compressão axial compatíveis com as especificações referentes ao cimento Portland composto, apesar destes resultados serem inferiores aos obtidos para as argamassas de referência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presença da vegetação exerce grande influência em aspectos de conforto ambiental principalmente nas questões referentes ao conforto térmico e a percepção do ambiente construído. A exclusão das áreas verdes nos locais que o ser humano habita, causa inúmeros danos para o ambiente influenciando na sua qualidade de vida porque ele está geneticamente ligado à natureza e precisa dela para viver. Estas questões são determinantes para que o desempenho do ambiente construído atinja níveis satisfatórios para o bem estar do usuário. O objetivo principal deste trabalho foi compreender questões relacionadas a aspectos físicos e psicológicos quanto a presença da vegetação para os usuários dos espaços abertos no Campus Central da Pontifícia Universidade Católica do Rio Grande do Sul situado em Porto Alegre. O objetivo secundário foi a identificação dos aspectos positivos e negativos da presença da vegetação quanto às questões térmicas e psicossociais no Campus Central da PUCRS. Para o desenvolvimento deste trabalho foram realizadas entrevistas com um grupo de usuários dos espaços abertos do Campus Central da PUCRS. Os resultados foram analisados a fim de verificar a percepção dos entrevistados sobre a presença da vegetação e a relação estabelecida com os aspectos de conforto ambiental. A discussão sobre a influência da vegetação no ambiente construído foi embasada em uma revisão teórico-conceitual sobre conforto e percepção ambiental direcionada aos espaços abertos nas cidades em relação ao ser humano e à natureza Conforme foi possível identificar através dos resultados desta pesquisa, os entrevistados valorizam a presença da vegetação nos espaços abertos do Campus Central da PUCRS. Os entrevistados destacaram aspectos relativos à vegetação como elemento importante para a melhoria do conforto térmico e para a humanização dos espaços abertos no Campus Central da PUCRS. Algumas questões foram destacadas pelos entrevistados em relação às altas temperaturas no verão, à falta de sombra nos estacionamentos do Campus, à demanda por locais para sentar nas áreas externas e recantos e a necessidade de aumento da vegetação nos espaços abertos do Campus Central da PUCRS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema do presente estudo é o gerenciamento de resíduos sólidos de serviços de saúde (RSS) em hospitais. Os RSS são os resíduos provenientes de todos os estabelecimentos prestadores de serviços de saúde, tais como hospitais, laboratórios, serviços de diagnóstico e tratamento, centros de saúde, clínicas, institutos de medicina legal e outros. O gerenciamento correto dos RSS significa não só controlar e diminuir os riscos, mas também alcançar a redução da quantidade de resíduos desde o ponto de origem, que elevaria também a qualidade e a eficiência dos serviços que proporciona o estabelecimento de saúde. O objetivo geral da pesquisa é analisar o gerenciamento dos resíduos sólidos de serviços de saúde nos hospitais de Porto Alegre. O método empregado para atingir o objetivo proposto foi a pesquisa descritiva por meio de um levantamento de todos os integrantes do universo pesquisado – censo nos 28 hospitais de Porto Alegre. Foram utilizadas como fontes secundárias informações obtidas em seminários relacionados ao tema. Os resultados obtidos indicam que a segregação na origem e o encaminhamento à reciclagem, reduzem o volume de resíduos destinados ao aterro sanitário, acarretando em benefícios ambientais e sociais, e, em alguns casos, economia de recursos financeiros para o estabelecimento de saúde. Os problemas relacionados ao gerenciamento de RSS estão diretamente ligados à conscientização de funcionários, médicos e gerência do hospital, da importância da correta segregação, armazenagem e manuseio dos resíduos. Problemas secundários são a falta de recursos e espaço físico. Observou-se deficiências em relação a planejamento, documentação e estatísticas básicas para tomada de decisão no gerenciamento dos RSS. É necessária uma maior mobilização por parte dos estabelecimentos hospitalares para a discussão da legislação e de soluções de problemas, com ações concretas guiadas por objetivos e metas a serem alcançados, compatíveis com a realidade dos hospitais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em vista da maior complexidade da programação paralela e distribuída em relação à programação de ambientes centralizados, novas ferramentas vêm sendo construídas com o objetivo de auxiliar o programador desses ambientes a desempenhar sua tarefa de formas mais eficazes e produtivas. Uma das ferramentas que há algum tempo tem sido usada na programação centralizada e aos poucos está sendo empregada também na programação concorrente é a programação visual. A programação visual se vale da presença de elementos visuais na especificação dos programas como peças chaves do processo de desenvolvimento de software. No caso específico da programação concorrente, a programação visual é especialmente útil pela capacidade que os gráficos têm de representar de forma mais adequada estruturas bidimensionais. Um programa concorrente, por relacionar no espaço diversos elementos com seus próprios fluxos de execução, faz surgir duas dimensões de análise que são mais difíceis de serem observadas através de programas textuais. Atualmente existem ferramentas de programação visual paralela e distribuída, mas a ênfase é dada na programação paralela, sem muita atenção a aplicações de sistemas abertos ou cliente-servidor. Além disso, tais ferramentas sofrem da falta de apoio à engenharia do software. Considerando essas deficiências, este trabalho apresenta uma ferramenta de programação visual para o desenvolvimento de aplicações compostas por objetos distribuídos que ofereça também a possibilidade de aplicar os principais conceitos da engenharia de software, como reutilização e orientação a objeto. Nesta ferramenta, o programador especifica de maneira visual a estrutura do seu programa, insere o código textual para a lógica da aplicação e o ambiente se encarrega do tratamento da distribuição e da comunicação de mais baixo nível. A aplicação é representada como um grafo dirigido, onde os nodos representam os objetos distribuídos e os arcos indicam os relacionamentos existentes entre esses objetos. A especificação dos programas é modular, baseando-se na reunião de componentes reutilizáveis, o que torna o sistema altamente configurável e extensível. Tanto a implementação da ferramenta quanto o código das aplicações geradas usam a linguagem de programação Java. A linguagem de programação visual projetada não especifica detalhes a respeito de como irá funcionar a comunicação e distribuição dos objetos. Portanto, foram implementados componentes para comunicação e outros recursos de programação distribuída, como locks e dados globais para serem usados nas aplicações. Para validar os principais objetivos da ferramenta, foram implementados alguns exemplos de aplicações distribuídas, como um pequeno sistema de bate-papo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O produto de algumas pesquisas em andamento, especialmente de estudos que se propõem a refletir sobre as conseqüências hegemônicas da globalização do capitalismo na Educação Superior, apontam para a disseminação de técnicas de stricto sensu empresarial, objetivando o aprimoramento da gestão acadêmico-administrativa das universidades. Contrapondo-se a essas concepções, em cujas epistemologias, não raro, identifica-se a coação, sobretudo, da autonomia acadêmica, o presente trabalho apresenta a hipótese da co-responsabilidade como uma proposta capaz de suscitar a integração das dimensões pedagógicas e econômico-financeiras que se configuram, normalmente, dissociadas no interior das Instituições de Ensino Superior (IES). A partir desse pressuposto, especialmente centrado nos processos decisórios das IES, admite-se a possibilidade do êxito da gestão administrativa, ou seja, a manutenção e o acréscimo das receitas destinadas à melhoria das condições de oferta dos cursos (bibliotecas, laboratórios, incentivo à dedicação e capacitação docente, pesquisa, extensão etc) como atrelada ao êxito da gestão pedagógica, ou seja, do aprimoramento do ensino e da qualidade das aprendizagens e vice-versa. Embora essas duas injunções, se atreladas a paradigmas simplificadores, dever-se-iam anular em um círculo vicioso, o presente estudo fundamenta-se na teoria da complexidade (de Edgar Morin), por meio da qual se torna possível compreender a organização dos sistemas através de antagonismos (de ordem e desordem), mesmo, aparentemente, contraditórios. Como exemplo prático de implementação desse modelo teórico, esta tese mostra uma experiência vivenciada na Universidade Católica de Pelotas (Brasil), capaz de corroborar a premissa proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho avalia a evolução da produtividade industrial brasileira — utilizando um painel de 16 setores da indústria de transformação no período 1985/97 — e o papel da abertura econômica neste processo. Os resultados mostram que a produtividade da indústria brasileira, seja ela medida pelo conceito de produtividade total dos fatores (PTF) ou de produtividade do trabalho, passou por duas fases distintas: de 1985 a 1990, há um processo de estagnação e de 1990 a 1997, a indústria passa a apresentar significativas taxas de crescimento. A abertura comercial, caracterizada por menores tarifas nominais e menores taxas de proteção efetiva, exerce um efeito positivo sobre o aumento da produtividade. Em todas as regressões do modelo — em que se utilizam técnicas de estimação em painéis — não se pode rejeitar a hipótese de que aumentos nas barreiras comerciais implicam menores taxas de crescimento da produtividade do trabalho e da PTF. Este resultado confirma a evidência internacional de que países mais abertos crescem mais rápido e desestimularia a adoção de políticas de restrição comercial como estratégia de desenvolvimento e de proteção à indústria nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.