37 resultados para Análise quantitativa Idoso


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo desta pesquisa foi investigar as concepções dos futuros professores de Física sobre a natureza da ciência e sua evolução através de uma disciplina de História e Epistemologia da Física. A disciplina apresentou de forma explícita e em um ambiente de atividade colaborativa presencial e participativa as visões epistemológicas de alguns dos principais filósofos da ciência do século XX. O estudo compõe-se de quatro etapas distintas de análise, cada uma delas com identidade própria, uma vez que deram origem a quatro artigos independentes. A primeira etapa de análise descreve a forma de implementação e as estratégias de ensino utilizadas na disciplina e apresenta uma análise quantitativa complementar da evolução das concepções dos futuros professores de Física. A segunda etapa apresenta uma narrativa do cotidiano de sala de aula através de um estudo de caso tipo etnográfico que visou analisar as ações, falas, atividades, produções, opiniões, críticas e sugestões da perspectiva dos atores envolvidos. A terceira faz uma análise interpretativa das monografias produzidas pelos estudantes sobre as idéias epistemológicas estudadas ao longo da disciplina. A quarta etapa analisa as entrevistas realizadas com os estudantes alguns meses após o término da disciplina. Os resultados sugerem que houve uma evolução significativa das visões dos estudantes sobre a natureza da ciência e indicam a importância de algumas mudanças nas visões, no enfoque e na profundidade das discussões. Também sugere que o método colaborativo presencial e participativo contribui positivamente para tornar os futuros professores de Física mais reflexivos e críticos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Na busca por novos materiais, foram sintetizados uma série de terpolímeros de etilenopropileno –α-olefinas superiores (1-hexeno, 1-deceno e 1-octadeceno) usando o sistema catalítico rac-Et[Ind]2ZrCl2/MAO. A razão entre E/P foi variada e duas concentrações de termonômeros foram estudadas. Neste trabalho foram apresentados os resultados qualitativos e quantitativos da caracterização desses terpolímeros através da técnica de ressonância magnética de carbono 13 (RMN de 13C). Foram apresentados os deslocamentos químicos observados e devidamente identificados, assim como a análise quantitativa da distribuição das tríades, do comprimento médio de unidades consecutivas e das razões de reatividade. O efeito da adição de uma olefina de cadeia longa ao sistema etileno-propileno foi avaliado através dos resultados obtidos da atividade catalítica, teor de incorporação, nas propriedades térmicas, na massa molar e propriedades mecânicas. Também foi realizado um estudo da heterogeneidade de algumas amostras através do fracionamento por eluição com gradiente de temperatura (TREF). O sistema rac-Et[Ind]2ZrCl2/MAO mostrou-se eficiente na terpolimerização do etileno e a técnica de RMN de 13C permitiu a completa caracterização de todos os terpolímeros obtidos. Esses terpolímeros mostraram-se como um sistema complexo onde foi possível observar que, dependendo do tipo de olefina que irá coordenar no sítio ativo do rac- Et[Ind]2ZrCl2/MAO, haverá mudanças significativas nas atividade e nas propriedades desses materiais. Verificou-se que as três α-olefinas superiores estudadas foram incorporadas a cadeia polimérica, sendo que na maioria dos casos a α-olefina mais incorporada foi o 1-octadeceno nas duas concentrações de termonômero analisadas. O aumento da incorporação de propeno acarreta uma diminuição no teor de termonômero incorporado. A incorporação do propeno acarreta uma diminuição das unidades cristalizáveis de etileno, provocando um decréscimo na temperatura de fusão, com o aumento da incorporação de propeno ocorre um aumento das seqüências de propeno cristalizáveis e conseqüentemente a temperatura de fusão. A massa molecular também diminui devido ao aumento das reações de terminação por β-eliminação de hidreto. Observou-se que os terpolímero apresentaram um módulo menor do que os copolímeros. Esses terpolímeros estudados apresentaram um comportamento elastomérico, podendo ser classificados como Elastômeros Termoplásticos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O cloridrato de epinastina é um agente não sedativo, antagonista H1 da histamina, utilizado no tratamento da asma ou como anti-histamínico, comercializado no Brasil na forma farmacêutica comprimido revestido com o nome de Talerc ®. Embora, seja um medicamento amplamente comercializado não há referências relativas aos métodos de análise da forma farmacêutica. Este trabalho teve como objetivos o desenvolvimento e a validação de métodos analíticos para o controle de qualidade do cloridrato de epinastina nos comprimidos revestidos, bem como a realização de estudos preliminares de estabilidade térmica e de fotoestabilidade e determinação da cinética de reação do anti-histamínico em estudo.A análise qualitativa do cloridrato de epinastina foi realizada por ressonância magnética nuclear de próto n, determinação da faixa de fusão, espectrofotometria na região do infravermelho e do ultravioleta, cromatografia em camada delgada e por cromatografia a líquido de alta eficiência. Para análise quantitativa, foram validados os métodos por espectrofotometria na região do ultravioleta derivada de primeira ordem e por cromatografia a líquido de alta eficiência. A validação foi efetuada de acordo com as guias de validação disponíveis na literatura. No estudo preliminar de estabilidade térmica utilizou-se a forma farmacêutica submetida a temperatura de 80 °C por 10 dias. A fotoestabilidade foi realizada em câmara de luz ultravioleta de 254 nm por um período de 18 horas. Os métodos qualitativos foram úteis para identificação do cloridrato de epinastina. Os métodos quantitativos propostos foram validados de acordo com os parâmetros analíticos preconizados, podendo ser perfeitamente intercambiáveis. O estudo preliminar de estabilidade térmica não apresentou degradação da amostra nas condições de análise empregadas. O estudo de fotoestabilidade apresentou degradação intensa obedecendo uma cinética de reação de primeira ordem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho trata da identificação e da análise dos fatores que, na percepção dos proprietários, contribuíram para a mortalidade das empresas em Campo Grande, Mato Grosso do Sul, no período de 1995 a 1997. Sob a ótica do conceito de ciclo de vida organizacional, das características da morte e declínio organizacionais e dos fatores ambientais, foi realizada uma pesquisa com cento e trinta e uma empresas extintas naquele período. Os fatores ambientais foram subdivididos em internos e externos, com vistas a identificar, por meio dos indicadores, o perfil das empresas e dos empresários e as características externas da empresa, como mercado, clientes, carga tributária e outras. A partir de uma amostra inicial de mil e duzentas empresas abertas naquele período, sendo quatrocentas por ano, obteve-se, após uma busca para identificar, dentre elas, as x que encerraram suas atividades, um total de cento e trinta e uma empresas, que efetivamente participaram da pesquisa, preenchendo um questionário, aplicado por estagiários de um centro de pesquisas de uma universidade local. A pesquisa caracteriza-se como seccional com perspectiva longitudinal, sendo a análise de dados predominantemente quantitativa. Os resultados evidenciaram que problemas financeiros, seguidos de falta de clientes e questões de ordem societária, foram as principais causas de morte das empresas pesquisadas e, ainda, que a elevada carga tributária, seguida de falta de capital de giro, e a recessão econômica foram as principais dificuldades encontradas na condução das suas atividades. Finalmente, com base nos resultados da pesquisa, foi indicado um conjunto de recomendações que visam a reduzir o nível de mortalidade das pequenas empresas no Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: O conhecimento da distribuição da perfusão pulmonar pela cintilografia na bronquiolite viral aguda, pode auxiliar no entendimento das alterações no equilíbrio da ventilação - perfusão, peculiares a essa doença do lactente jovem. Objetivo: Avaliar o padrão de distribuição da perfusão pulmonar em pacientes hospitalizados com bronquiolite viral aguda por meio de cintilografia pulmonar perfusional quantitativa com macroagregado de albumina com tecnécio (99mTc-MAA), estabelecendo associação com as avaliações clínica e radiológica, bem como determinando o seu padrão evolutivo até a condição de normalidade. Tipo de estudo: Dois estudos prospectivos com enfoque diagnóstico: um transversal, comparativo, e um longitudinal, evolutivo, controlado. Pacientes e métodos: A amostra da pesquisa foi constituída por pacientes hospitalizados no Hospital de Clínicas de Porto Alegre com diagnóstico de bronquiolite viral aguda, no período de abril de 1998 a setembro de 2000, baseada em critérios clínicos de inclusão: idade entre 01 e 24 meses, com quadro respiratório obstrutivo de vias aéreas inferiores (primeiro episódio de sibilância expiratória de início súbito, com sinais de coriza, tosse irritativa, hipertermia, taquipnéia, tiragem, batimentos de asa de nariz, esforço expiratório), com gravidade suficiente para determinar a hospitalização e cujos pais aceitaram participar do estudo. Todos os pacientes da pesquisa foram submetidos à avaliação clínica, radiológica e da perfusão pulmonar com o radiofármaco. A cintilografia foi realizada na condição de crise (primeiras 24 horas da admissão) e na convalescência (depois de 7 dias da alta hospitalar). A quantificação do fluxo sangüíneo pulmonar, representada em valores percentuais, foi realizada em três áreas de interesse, nas projeções anterior e posterior, de ambos os pulmões. As comparações foram feitas entre ambos os pulmões e entre as condições de crise e controle, considerando as áreas de interesse e os gradientes entre elas e entre as projeções anterior e posterior das mesmas. Para análise comparativa das médias foi utilizado o teste t de Student para amostras pareadas, considerando o nível de significância de 0,05. Resultados: Iniciaram o estudo transversal 38 pacientes e permaneceram no estudo longitudinal 19 pacientes; da amostra total, 22 eram do sexo masculino. A idade variou de 1 a 8 meses (média 2,8 meses). A distribuição do fluxo sangüíneo pulmonar regional foi maior na região superior do pulmão esquerdo (PE) em relação ao pulmão direito (PD), na crise (P < 0,001), e maior na região média do PD, no controle. Os gradientes de distribuição do fluxo sangüíneo pulmonar entre as regiões superior e média e superior e inferior foi maior no PE, na crise e no controle (P < 0,05). O gradiente de distribuição do fluxo sangüíneo pulmonar entre as regiões média e inferior foi maior no PD, na crise e no controle. O gradiente de distribuição do fluxo sangüíneo pulmonar no eixo ântero-posterior na região superior foi > 1,0 em ambos os pulmões, na crise, e apenas no PE, no controle; na região média, foi > 1,0 em ambos os pulmões, na crise e no controle; na região inferior, foi > 1,0 apenas no PD, na crise e no controle (P < 0,05). A distribuição do fluxo sangüíneo pulmonar, comparada entre crise e controle, não mostrou diferença em quaisquer das regiões ou dos gradientes avaliados. Não houve associação entre o padrão de distribuição do fluxo sangüíneo pulmonar regional na crise com a avaliação clínica ou com a avaliação radiológica dos pacientes. Conclusão: não se evidenciou uma distribuição do fluxo sangüíneo pulmonar com caraterística de expressar o padrão da relação ventilação-perfusão em lactentes jovens hospitalizados com bronquiolite viral aguda. Ocorreu apenas uma tendência de redirecionamento da distribuição do fluxo sangüíneo pulmonar para as regiões superiores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estado dos recursos hídricos da bacia do rio Gramame, localizada no litoral sul do Estado da Paraíba, tem se revelado insustentável, principalmente nesses últimos anos. Tanto a escassez quantitativa quanto a qualitativa inserem-se no contexto da bacia, tornando frreqüentes os conflitos entre os principais usuários de água (abastecimento urbano, indústrias e irrigantes). Em virtude disso, surge a necessidade de implementação de um sistema de outorga na bacia, para uma alocação eficiente das disponibidades hídricas. Neste trabalho, foram abordados os principais problemas para essa implementação: (a) a definição da vazão m[axima outorgável; e (iii) a intrtodução dos aspectos qualitativos da água. Par ao primeiro problema, foram estabelecidos e avaliados como passíveis de emprego na bacia os seguintes critérios de outorga: (a) vazão excedente; (b) garantia de suprimento; (c) vazão de referência com probabilidade de superação de 90% (Q90); (d) 2 vazões de referência Q90 para as estações seca e chuviosa e (e) 12 vazões de referência Q90 referentes a cada mês do ano. No tocante à qualidade da água no processo de outorga, foi verificada a sensibilidade do sistema hídrico e suas demandas à consideração dos poluentes lançados nos cursos dágua da bacia como demanda para diluição da concentração de Demanda Bioquímica de Oxigênio (DBO). ALém disso, foi abordado, de forma simplificada, o processo de autodepuração da DBO, através de coeficientes de depuração, visando avaliar a relevância das vazões liberadas para novoo usos nas seções à jusante dos deesejos de efluentes. Através da comparação dos parâmetros de desempenho (garantia volumétrica, garantia temporal, garantia crítica temporal, garantia volumétrica mensal mínima, resiliência e vulnerabilidade) obtidos da simulação de cada cenário da bacia, de ocorrência em curto prazo, foram avaliados os critérios de outorga e a introdução da qualidade da água. Priorizando o atendimento das demandas para abastecimento urbano, em ordem crescente de redução do suprimento das demandas existentes na bacia, os critérios de determinação da vazão máxima outorgável puderam ser ordenados como: vazão excendente, vazões de referência mensais, vazões de referência das estações seca e chuvosa, vazão de referência única e garantia de suprimento. Quanto à consideração das demandas para diluição de despejos, verificou-se que, de modo geral, estas poucos reduziram o suprimento das demandas já instaladas na bacia e também não foram significativas as vazões liberadas pela autodepuração a ponto de melhorar o atendimento das seções por ela afetadas. Entretanto, excetuando a demanda para diluição dos efluentes domésticos do município do Conde, foi verificada a inviabilidade de suprimento dos atuais lançamentos de efluentes na bacia, cujo percentual de atendimento não atingiu 50% do volume requerido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de analisar o efeito da implantação da Norma ISO 9000 em Micro e Pequenas Empresas, elaborado através de uma pesquisa quali/quantitativa em um grupo de empresas de micro e pequeno porte no estado do Rio Grande do Sul, empresas estas certificadas pelas Normas NBR ISO 9000, no período de 1998 a dezembro de 2000, com o apoio do SEBRAE/RS por meio do Programa Rumo à ISO 9000. Para tanto, abordaram-se questões referentes a competitividade, qualidade e sistema de garantia da qualidade. Foram pesquisadas 60 empresas e obteve-se um retorno de 53% da amostra pesquisada. Das empresas que responderam, 28% representam o setor de serviços; 10%, o comércio e 62% são representantes da indústria. Essas empresas estão estabelecidas 25% em Porto Alegre, 22% na região metropolitana e 53% no interior do estado, destacando-se como maioria empresas da região serrana. A coleta de dados foi realizada por meio de um questionário estruturado, enviado via correio e também algumas entrevistas por telefone. Os resultados obtidos evidenciaram que as empresas tornaram-se mais competitivas após a certificação pela ISO 9000. Destacou-se também que a maior dificuldade encontrada pelas empresas durante e após o processo de certificação foi a falta de preparação e comprometimento das pessoas que compõem as empresas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste estudo, buscou-se identificar as motivações humanas para a prática de atividade física, a fim de compreender os motivos de aderência e permanência dos indivíduos nas academias de ginástica, e a partir disso, contribuir para criar a base de uma estratégia de marketing voltada à fidelização de clientes de academias. Como metodologia, adotou-se a pesquisa descritiva como forma de aplicar conhecimentos na direção da solução de um problema específico, composto de duas etapas distintas: a primeira qualitativa (com caráter exploratório) e a segunda quantitativa (através da estruturação, aplicação de um questionário, para verificar e mensurar o comportamento dos consumidores de academias de ginástica). A partir da coleta, tabulação e análise dos resultados obtidos sobre a motivação dos clientes de academias, foi possível criar orientações para o planejamento estratégico voltado à fidelização dos clientes de academias de ginástica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem como objetivo geral implantar um programa de produção mais limpa e prevenção à poluição na disciplina de análise química do curso técnico de química de escola de nível médio. O foco do estudo foi análise química quantitativa por métodos clássicos de volumetria e gravimetria, desenvolvido com 3 turmas de alunos. Para isto, a literatura foi revisada, buscando-se os conceitos de Produção mais Limpa (PML), good housekeeping, Prevenção à Poluição (P2), Planos Curriculares Nacionais (PCNs), Constituição Federal e Estadual e implicações de assuntos ambientais e de segurança no ensino da química. A seguir efetuou-se um plano de trabalho e realizou-se a implementa-ção de medidas. Foram estabelecidas como medidas a minimização de reagentes, insumos e resíduos, a reutilização e reciclagem dos mesmos e a conscientização dos alunos sobre sua responsabilidade ambiental em 2 turmas de alunos, mantendo-se a outra como turma controle. Para avaliação de resultados foram usados indicadores quantitativos e qualitativos como quantidades de reagentes, insumos (água potável, detergente e papel toalha) e resí-duos, análise estatística dos resultados analíticos através teste Q, teste F, teste de t student e coeficiente de variação, análise de custos e postura dos estudantes frente a assuntos ambi-entais medidos através de suas atitudes. Os resultados mostraram que houve redução de 50% de reagentes, 55% de insumos, 50% de compostos químicos nos resíduos destinados para a estação de tratamento de efluentes em um volume 31% menor, superando as expec-tativas. Não houve diferença significativa nos resultados analíticos encontrados. A postura dos estudantes mostrou o nível de conscientização esperado. Verificou-se que, com as de-vidas adaptações, é possível aplicar um programa de produção mais limpa e prevenção à poluição em análise química e também em outras disciplinas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação apresenta o programa Seis Sigma e o ramo petroquímico. O objetivo deste trabalho é realizar uma análise crítica do processo de implantação de um projeto Seis Sigma em um setor de uma indústria do ramo petroquímico. A empresa focada desejava obter a diminuição da variabilidade presente na diferença entre os níveis de viscosidade da entrada e da saída em um setor de coagulação e acabamento de látex. Para tanto, é usado um método chamado DMAIC, termo provindo das palavras Define, Measure, Analyze, Improve e Control, que identificam cada uma de suas fases. Na dissertação são abordados Análise dos Modos de Falha e seus Efeitos (FMEA), Projetos de Experimentos (DOE), Controle Estatístico de Processo (CEP), Análise de Sistemas de Medição (ASM), Aprendizagem Organizacional, PDCA e Desdobramento da Função Qualidade (QFD). O autor faz uso da pesquisa-ação, com uma abordagem basicamente quantitativa. Na fase Analisar do projeto detectou-se uma ineficiência do sistema de medição para os objetivos do projeto, assim como, no laboratório as leituras a partir de borracha seca apresentam menor variabilidade que as leituras a partir do látex em estado aquoso. A idade dos rotores e a pressão utilizada nos viscosímetros não são significativas para a redução da variabilidade nas leituras. Porém, a adoção de banho térmico no látex e o reposicionamento dos termosensores nos viscosímetros mostraram-se eficazes. Na fase Controlar ao final do projeto ficou evidenciada uma redução no número de lotes redirecionados. A principal dificuldade encontrada na implementação do método DMAIC foi o acompanhamento inadequado dos indicadores técnicos e financeiros. Houve atrasos no cronograma em função da má definição dos papéis das pessoas envolvidas no projeto, pela falta de uma agenda clara de trabalho e pelo uso de um problema muito complexo em um único projeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem como proposta investigar aspectos relacionados à concordância nominal de número na fala de crianças monolíngües no português do Brasil. O parâmetro analítico segue as descrições sobre o fenômeno na fala adulta, sob o arcabouço da Sociolingüística Quantitativa. Dessa forma, a investigação que aqui se apresenta estrutura-se tanto em aspectos lingüísticos quanto sociais. Nosso objetivo é observar, se tal como na fala adulta, a concordância nominal de número caracteriza-se como uma regra variável na fala infantil. Nossa análise organiza-se em dois momentos. O primeiro, denominado análise atomística, focaliza as motivações estruturais do sistema lingüístico condicionantes da presença da marca formal de plural em cada constituinte sintagmático. A segunda parte, denominada análise não atomística, analisa o sintagma nominal como um todo e averigua os condicionamentos extralingüísticos no que diz respeito à produção de SNs plurais padrão e não-padrão na fala da criança, nos termos estipulados pela norma gramatical. Para tal propósito, tomamos para análise quatro coletas transversais de crianças, recobrindo um período etário dos quatro aos oito anos de idade. De modo geral, os resultados encontrados sugerem um comportamento verbal semelhante ao dos adultos, embora muitos dos fatores discutidos não tenham significância estatística, conforme a análise realizada com o pacote de programas estatístico VARBRUL.