235 resultados para Prognóstico baseado em dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo sobre maturidade gerencial desenvolveu-se com base no modelo de Chris Argyris e foi enriquecido com reflexões, proposições e indagações de outros autores que, direta ou indiretamente, estudaram o comportamento de dirigentes em organizações de aprendizagem e de empresas excelentes. O estudo foi realizado a partir das manifestações de dirigentes de empresas de pequeno, médio e grande porte, localizadas no Município de Porto Alegre. Das sete dimensões estudadas - desdobradas em atitudes e habilidades - verificou-se que os dirigentes consideram muito importantes, a iniciativa e a perspectivas de ação; importantes, em ordem decrescente de percentual de respostas, autonomia e autocontrole; seguidas, em igualdade de condições, pela flexibilidade e auto-estima, e finalmente pela dimensão interesse. Foram constatadas diferenças significativas de respostas apresentadas pelos dirigentes do sexo feminino em relação às respostas fornecidas pelos do sexo masculino, assim como das respostas fornecidas por dirigentes que há mais tempo estão na empresa ou no exercício da função em relação aos que têm menos tempo de exercício profissional. Também foram constatados resultados surpreendentes que confirmam a interferência de aspectos culturais e educacionais nas respostas dadas. As variáveis idade, tempo na organização e no exercício da função na empresa demonstraram também sua interferência. Os resultados da pesquisa permitiram igualmente divisar caminhos, onde existem elos importantes, sendo o principal o de considerar o homem como agente de sua história e de sua empresa, na medida em que ele se conhecer mais e intencionalmente realizar vivências que o levem a um desenvolvimento pessoal – alcançar sua maturidade na empresa. São feitas reflexões que requerem alternativas diferenciadas de intervenção para as Universidades e Escolas Técnicas, para as áreas de consultoria e de Recursos Humanos das Empresas. Também se confirmou a necessidade de serem realizados novos estudos para aprofundar a temática, tanto em nível empresarial, quanto acadêmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo identifica os problemas que as empresas clientes do Balcão SEBRAE–Sede/Porto Alegre enfrentaram no momento da abertura da empresa e quais problemas de gerenciamento estão enfrentando no momento atual. O método aplicado foi o “Survey” baseado na coleta de dados primários (em campo) por meio de questionários estruturados aplicados a uma amostra não-probabilística, através de entrevista pessoal, elaborada com o intuito de obter o grau de concordância dos empresários com os problemas apresentados na abertura da empresa e no momento atual. Os dados foram coletados em uma amostra de 106 empresas, correspondendo a 36,4% da população estudada. Os resultados identificam o empresário com um nível de formação bastante elevado, na sua maioria com nível superior completo e com especialização. Mais de 50% das empresas têm mais de 5 anos de existência, são da área de prestação de serviços e a maioria possui até 9 funcionários. Os respondentes na sua maioria têm mais de 30 anos e são homens. Os resultados identificaram ainda que nas empresas com até 3 anos de existência e naquelas cujos empresários têm curso superior esses concordam que enfrentaram problemas no momento da abertura da empresa. Os resultados apontaram como sendo a principal preocupação do empresário nesse momento a organização das atividades administrativo - financeiras. As áreas que o empresário encontra maiores dificuldades no gerenciamento da empresa, no momento atual, são a área de Administrativo - financeira e de Mercado. Foram identificados problemas gerenciais em todas as áreas pesquisadas, dos quais relacionamos alguns: quanto a consolidação dos controles de resultados e incentivo a inovação; a obtenção de recursos para capital de giro e para financiar o crescimento das empresas; no controle de qualidade das suas empresas; no recrutamento e seleção de pessoal; no desenvolvimento de relatórios e sistemas de controles gerenciais e quanto a informações sobre indicadores de resultado. A partir dos resultados da pesquisa concluímos que as empresas estão enfrentando problemas identificados por Greiner apud Padula, referentes às fases de sobrevivência e de sucesso e/ou de decolagem. A média das concordâncias das respostas indicam que muitas vezes as empresas estão na Fase 2, em algumas áreas, como por exemplo, administrativo - -financeira e na Fase 3, como na área de mercado, em algumas questões. Palavras-chave: micro e pequenas empresas; problemas gerenciais; abertura de empresa; gestão de micro e pequenas empresa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A ultra-sonografia obstétrica é um método diagnóstico tradicionalmente utilizado na rotina do atendimento pré-natal, tendo sido estudados de forma ampla suas vantagens e limitações. O advento do diagnóstico intra-uterino de cardiopatias congênitas e de arritmias através da ecocardiografia fetal modificou completamente o prognóstico perinatal dessas afecções, por permitir planejar o adequado manejo cardiológico no período neonatal imediato e, em algumas situações, o tratamento e sua resolução in utero. Sendo muito elevada a prevalência de cardiopatias congênitas durante a vida fetal, sua detecção torna-se fundamental. Considerando a inviabilidade operacional de realizar rotineiramente ecocardiografia fetal em todas as gestações, levando-se em conta as condições locais do sistema de saúde, o encaminhamento para exame por especialista passa a ser otimizado com a possibilidade da suspeita de alterações estruturais ou funcionais do coração e do sistema circulatório durante o exame ultra-sonográfico obstétrico de rotina. Não são conhecidos, em nosso meio, dados que avaliem de forma sistemática a acurácia da ultra-sonografia obstétrica no que se refere à suspeita pré-natal de cardiopatias. A partir deste questionamento, este trabalho foi delineado com o objetivo de avaliar o papel da ultra-sonografia obstétrica de rotina na suspeita pré-natal de cardiopatias congênitas ou arritmias graves e os fatores envolvidos na sua efetividade. A amostra foi constituída de 77 neonatos ou lactentes internados no Instituto de Cardiologia do Rio Grande do Sul / Fundação Universitária de Cardiologia (IC/FUC) no período de maio a outubro de 2000, com diagnóstico pós-natal confirmado de cardiopatia estrutural ou arritmia grave, que tenham sido submetidos, durante a vida fetal, a pelo menos uma ultra-sonografia obstétrica após a 18a semana de gestação. Para a coleta de dados, foi utilizado um questionário padronizado, respondido pelos pais ou responsáveis, após consentimento informado. As variáveis categóricas foram comparadas pelo teste do qui-quadrado ou pelo teste de Fisher, com um alfa crítico de 0,05. Um modelo de regressão logística foi utilizado para determinar variáveis independentes eventualmente envolvidas na suspeita pré-natal de cardiopatia. Em 19 pacientes (24,7%), a ultra-sonografia obstétrica foi capaz de levantar suspeita de anormalidades estruturais ou de arritmias. Ao serem consideradas apenas as cardiopatias congênitas, esta prevalência foi de 19,2% (14/73). Em 73,7% destes, as cardiopatias suspeitadas eram acessíveis ao corte de 4-câmaras isolado. Observou-se que 26,3% das crianças com suspeita pré-natal de cardiopatia apresentaram arritmias durante o estudo ecográfico, enquanto apenas 3,4% dos pacientes sem suspeita pré-natal apresentaram alterações do ritmo (P=0,009). Constituiram-se em fatores comparativos significantes entre o grupo com suspeita pré-natal e o sem suspeita a paridade (P=0,029), o parto cesáreo (P=0,006), a internação em unidade de tratamento intensivo (P=0,046) e a escolaridade paterna (P=0,014). Não se mostraram significativos o número de gestações, a história de abortos prévios, o estado civil, o sexo dos pacientes, o tipo de serviço e a localidade em que foram realizados o pré-natal e a ultra-sonografia obstétrica, a indicação da ecografia, o número de ultra-sonografias realizadas, a renda familiar e a escolaridade materna. À análise multivariada, apenas a presença de alteração do ritmo cardíaco durante a ultra-sonografia obstétrica mostrou-se como variável independente associada à suspeita pré-natal de anormalidade cardíaca. Este trabalho demonstra que a ultra-sonografia obstétrica de rotina ainda tem sido subutilizada no rastreamento pré-natal de cardiopatias congênitas, levantando a suspeita de anormalidades estruturais em apenas um quinto dos casos. Considerando a importância prognóstica do diagnóstico intra-uterino de cardiopatias congênitas e arritmias graves, todos os esforços devem ser mobilizados no sentido de aumentar a eficácia da ecografia obstétrica de rotina para a suspeita de anormalidades cardíacas fetais. O treinamento dirigido dos ultra-sonografistas e a conscientização do meio obstétrico e da própria população são instrumentos para esta ação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação propõe um método de trabalho para a implantação de um sistema de Planejamento Fino da Produção baseado na Teoria das Restrições. É apresentada uma revisão bibliográfica sobre Planejamento e Controle da Produção, destacando a abordagem da Teoria das Restrições. É realizado um estudo sobre ferramentas computacionais de Planejamento Fino da Produção e suas particularidades. A seguir é desenvolvido o método de trabalho, que foi seguido de sua aplicação prática em uma empresa industrial do ramo metal-mecânico. O estudo apresenta as modificações no sistema de Planejamento e Controle da Produção da empresa, que foi adequado as práticas e princípios da Manufatura Sincronizada. As melhorias decorrentes da implantação podem ser constatadas através dos resultados divulgados. Este trabalho explora as particularidades e dificuldades da implementação desta ferramenta de apoio à tomada de decisão, e discute aspectos referentes às mudanças na “filosofia” de produção impostas pela sincronização da manufatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho, baseado em estudo exploratório, pretende analisar as alterações ocorridas, ao longo dos anos, nas funções do médico do trabalho e como estas mudanças são percebidas pelo profissional. Para isto, descreve as funções tradicionais do médico do trabalho; identifica as mudanças que ocorreram e que possibilitam ou criam novas funções para o médico do trabalho e relata a percepção do médico do trabalho em relação a estas mudanças. Faz isto, enfocando a condição dos profissionais médicos do trabalho nos seguintes aspectos: 1. Histórico 2. Gerenciamento de Recursos Humanos 3. As práticas médicas 4. A formação profissional 5. Perfil dos profissionais 6. Relacionamento interno do serviço 7. Relacionamento externo (em relação à empresa) do serviço 8. As alternativas de gestão para a área de saúde ocupacional. Foram utilizadas para o levantamento de dados, as técnicas de entrevista em profundidade, com um médico do trabalho da empresa com muitos anos de atuação na área e, questionários aplicados individualmente com os demais pesquisados. Feito isto, os dados foram tabulados, analisados e comparados com a bibliografia existente. Por fim, já na fase final, o trabalho indica, preliminarmente, algumas alternativas para a atuação da empresa e do RH no sentido de otimizar os resultados da área. v A apuração dos resultados apontou para situações que sugerem um descompasso entre a evolução e as alterações ocorridas nos últimos anos nas funções do médico do trabalho e as condições e práticas que o profissional tem para desenvolver seu trabalho. Os profissionais indicam alternativas para a melhoria do desempenho do serviço. Nesta dissertação, também, são apresentadas desde deficiências na formação do médico do trabalho passando pelas necessidades, na visão destes médicos pesquisados, para melhorar o desempenho do serviço até o relacionamento dos profissionais com os diversos departamentos da empresa e com as instituições com as quais estão envolvidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente urbanização observada nas últimas décadas tem sido acompanhada por problemas relacionados a quase todos aspectos da infra-estrutura urbana. No que se refere à drenagem pluvial, a situação não é diferente. A impermeabilização gerada pelo processo de urbanização faz com que os hidrogramas se tornem progressivamente mais críticos, com maiores volumes escoados, maiores vazões de pico e menores tempos de escoamento. Agravando esta situação, o sistema tradicional de drenagem, baseado na máxima “pegar e largar depressa”, busca a eliminação da água, o mais rápido possível, através de galerias, condutos enterrados e canalizações, significando, muitas vezes, a simples transferência da cheia para as seções de jusante. A solução clássica para o problema das cheias baseiase na ampliação do sistema e/ou aumento da eficiência das redes, com custos geralmente elevados. Este trabalho apresenta um estudo experimental efetuado em trincheiras de infiltração, dentro de uma filosofia compensatória dos efeitos da urbanização. Esses dispositivos se inserem dentro de um conceito ambiental da drenagem urbana, onde se busca não mais a eliminação da água o mais rapidamente possível, mas sua valorização dentro do espaço urbano, através de dispositivos bem integrados e, preferencialmente, multifuncionais. Duas trincheiras de infiltração foram instaladas e monitoradas em uma área do IPH-UFRGS. A implantação das trincheiras baseou-se na adaptação, para as condições brasileiras, de técnicas descritas na literatura, principalmente no que se refere aos métodos construtivos e materiais utilizados, assim como aos métodos e critérios de utilização e dimensionamento. Durante o período de monitoramento e análise de dados, foram avaliados e discutidos aspectos relacionados a: condições de funcionamento, tais como magnitude do evento pluviométrico e condições antecedentes de umidade do solo; eficiência dos dispositivos; ocorrência de escoamento preferencial; custos; limitações de aplicação. Aspectos relacionados ao funcionamento do dispositivo ao longo do período de monitoramento são também discutidos, buscando avaliar seu desempenho a longo prazo, apesar do curto período de observação. Adicionalmente, um modelo numérico de simulação do funcionamento quantitativo de dispositivos de infiltração foi testado (modelo de Bouwer), sendo sugeridas modificações para torná-lo mais abrangente. As duas trincheiras mostraram-se eficientes, controlando 100% do volume escoado, mesmo para eventos de período de retorno superiores aos de projeto. Verificou-se que a metodologia de projeto gera super-dimensionamento das estruturas e que as condições iniciais de umidade do solo e as características dos eventos são fatores determinantes para seu funcionamento. Durante os 33 meses de observação da trincheira I e os 6 meses da trincheira II, não houve alterações significativas do funcionamento. Os eventos monitorados na trincheira I indicam a ocorrência de escoamento preferencial. Um ensaio destrutivo reforçou esta hipótese, além de mostrar acentuado grau de colmatação da primeira camada, em função do excessivo aporte de material em suspensão. Recomendações para utilização deste tipo de solução são apresentadas, visando estimular seu uso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este ensaio pretende, de um lado, identificar e descrever os traços dominantes da literatura e das demais poéticas contemporâneas, e, de outro, relatar o processo de transposição de um texto literário – o romance O Quieto Animal da Esquina, de João Gilberto Noll – para um texto de cinema, o roteiro cinematográfico homônimo, de minha autoria. Menos uma tese acadêmica do que uma tentativa de se constituir como um objeto artístico em si mesmo – tanto em sua condição de roteiro, quanto na de uma aproximação eminentemente subjetiva, não “científica”, de um modo de expressão – este ensaio é uma proposta de discussão sobre a rarefação de limites, sobre o diálogo e a interdependência das artes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é elaborar uma sistemática para estruturar uma rede logística reversa de distribuição para o sistema de coleta, processamento e recuperação de resíduos da construção civil. O trabalho foi estruturado em três partes, sendo que na primeira parte elaborou-se uma introdução geral à logística e à logística reversa em particular, definindo uma estrutura de suporte ao estudo de caso e às conclusões do trabalho; na segunda parte procurou-se vincular a logística reversa à sustentabilidade; e na terceira parte elaborou-se uma sistemática para a rede de distribuição, definindo os dados a serem utilizados na aplicação dos modelos, fazendo análises e tirando conclusões a respeito dos resultados obtidos e indicando possíveis desenvolvimentos futuros para o trabalho. Para a formatação da rede desenvolveu-se o modelo de rede reversa de recuperação de resíduos – MRRR, baseado em programação linear inteira mista. Para aplicação do MRRR ao caso dos resíduos de construção e demolição – RCD no município de Curitiba, definiu- se instalações de transbordo e de reciclagem candidatas, através da aplicação de um modelo de localização de múltiplos centros de gravidade – MMCG. Como nós fixos da rede foram considerados as zonas de consumo e de geração, os mercados secundários de recicláveis e recicladores e o aterro sanitário. Os dados para formatação da rede foram gerados pelo MRRR. Como produtos deste trabalho tem-se a sistemática, que pode ser aplicada para a estruturação de redes similares, e a formatação da rede reversa para os resíduos de construção e demolição em Curitiba. Como conclusão, entre outras, verificou-se que a redução da alíquota de imposto pode ser utilizada como incentivo à melhoria da qualidade do resíduo gerado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivos – Descrever as características clínicas de crianças entre 1 e 12 meses hospitalizadas com diagnóstico de bronquiolite viral aguda (BVA), nos primeiros dias de internação, e verificar se o tempo de dessaturação de oxigênio (TD) tem valor prognóstico nesses pacientes. Metodologia – Estudo de coorte realizado de maio a outubro de 2001 com 111 pacientes entre 1 e 12 meses de idade internados no Hospital da Criança Santo Antônio, de Porto Alegre (RS), com diagnóstico de BVA na admissão, com saturação transcutânea de oxigênio da hemoglobina (SatHb) menor que 95% e em oxigenoterapia por cateter extranasal há menos de 24 horas. A gravidade foi verificada através do tempo de internação, tempo de oxigenoterapia e tempo para saturar 95% em ar ambiente (desfechos). Foram realizadas avaliações clínicas duas vezes ao dia (manhã e tarde), durante o período em que o paciente necessitou de oxigênio suplementar (até atingir saturação transcutânea de oxigênio de 95% em ar ambiente), com limite de dez avaliações. Os pacientes tiveram o oxigênio adicional retirado. Foi verificado, então, o tempo necessário para a saturação decrescer até 90% (TD90) e 85% (TD85), limitando-se a medida em no máximo cinco minutos. Foi constituído um escore de gravidade com os sinais clínicos anotados. Utilizou-se o teste do qui-quadrado ou teste exato de Fischer para comparar entre si os grupos de variáveis categóricas e o teste t ou MannWhitney para variáveis numéricas. Foi utilizada a correlação de Spearman para avaliar associações entre variáveis contínuas de distribuição assimétrica (escore de gravidade, tempo de internação, tempo de oxigenoterapia total e tempo para saturar acima ou igual a 95% em ar ambiente). Considerou-se alfa crítico de 5% em todas as comparações, exceto nas correlações em que foi utilizada a correção de Bonferroni para comparações múltiplas (30 correlações: p= 0,002; 10 correlações: p= 0,005). Os dados relativos ao peso e estatura para a idade foram digitados e analisados no programa específico do EpiInfo que utiliza o padrão NCHS (EpiNut). Resultados – Houve leve predomínio do sexo masculino (54%), predominância de idade inferior a quatro meses (61,3%), prevalência maior nos meses de junho e julho, freqüência elevada de história de prematuridade (23%) e de baixo peso de nascimento (14%). As manifestações clínicas prévias à hospitalização (falta de ar, chiado no peito, febre e parar de respirar) ocorreram, na sua maioria, nos três dias anteriores. Da população estudada, 45% tinha história de sibilância prévia, a maioria com um ou dois episódios relatados (31,5%). Esses pacientes foram analisados separadamente e tiveram resultados semelhantes ao grupo com BVA. A freqüência de desnutrição moderada e grave, excluídos os pacientes com história de prematuridade, foi de 26 pacientes (23%). Todos os pacientes utilizaram broncodilatador inalatório; 20% do grupo com BVA receberam corticosteróides sistêmicos e 47% de toda população, antibióticos. A mediana do uso de oxigênio em pacientes com BVA foi de 4,4 dias (IIQ 70,2-165,2) e o tempo de oxigenoterapia até saturar 95% em ar ambiente foi de 3,4 dias (IIQ 55-128). A mediana do tempo de internação hospitalar foi de 7 dias (IIQ 5-10,5) entre os pacientes com BVA; neste aspecto, apresentou diferença (p = 0,041) em relação ao grupo com sibilância prévia, que teve um tempo de internação mais longo (9 dias, IIQ 5-12). Observou-se pouca variabilidade clínica no período estudado, através da aplicação do escore clínico. Não se encontraram correlações estatisticamente significativas entre os escores clínicos e os TDs com os desfechos. Conclusões – Os TDs como elementos auxiliares na avaliação de pacientes em oxigenoterapia não foram clinicamente úteis neste estudo. É possível, no entanto, que, avaliando pacientes com maiores diferenças clínicas entre si, essas aferições possam mostrar-se importantes.