998 resultados para Análise de componente principal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde que foi introduzido pela primeira vez na Nova Zelândia, em março de 1990, o regime de metas de inflação tem sido objeto de crescente interesse na literatura econômica. Seguindo a Nova Zelândia, inúmeros outros países passaram a adotar metas de inflação como regime de política monetária, como, por exemplo, o Canadá, Reino Unido, Suécia, Finlândia, Espanha, Chile, e Brasil. Por se tratar de um regime relativamente novo, surgiram na literatura diversos trabalhos com o propósito de avaliar este regime, tanto de uma perspectiva teórica quanto empírica. O objetivo principal deste trabalho é implementar alguns testes iniciais sobre a efetividade do regime de metas de inflação no Brasil. Para alcançar este objetivo, utilizamos duas abordagens principais. Em primeiro lugar, estimamos uma função de reação do tipo Taylor, e olhamos para mudanças nos pesos relativos sobre a atividade real e sobre a inflação. Na segunda abordagem, obtemos dois modelos Auto-Regressivos Vetoriais (VAR), um restrito e outro irrestrito. Estes dois modelos foram utilizados num exercício de previsão fora da amostra (out-of-sample). Os resultados, embora ainda preliminares produzidos pelos poucos dados disponíveis, permitem-nos concluir que o impacto inicial de metas de inflação foi positivo. Nossos resultados indicam que metas de inflação foi um mecanismo importante para manter a estabilidade de preços obtida a partir do Plano Real, mesmo num contexto de acentuada desvalorização cambial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um sistema virtual para suporte ao ensino, denominado SADA. O sistema se baseia na análise do desempenho durante a aprendizagem para implementar técnicas de adaptação para apresentação dos links. Tendo como objetivo principal auxiliar o ensino presencial, e caracterizar as possibilidades para se adaptar a navegação no conteúdo do curso através da forma de apresentação dos links. O SADA utiliza ferramentas computacionais de domínio público na Web, e possui um conjunto de opções para criação e divulgação de cursos com conteúdos didáticos, e questões de múltipla escolha para avaliação do desempenho do aluno. Um sistema de ensino como o SADA, mediado por computador e baseado na Internet (Web), pode ser uma ferramenta complementar ao trabalho do professor, por acrescentar maior dinâmica aos cursos ou disciplinas devido às novas formas de interação com o aluno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação está inserida nos estudos relativos ao conforto ambiental, tendo como foco principal a melhoria do desempenho da edificação, causando, portanto, maior satisfação ao usuário. Este trabalho teve o objetivo de analisar a intervenção na estrutura física de uma escola do ensino fundamental, da rede pública municipal da zona urbana de Feira de Santana, Bahia, que foi feita visando melhorar o conforto ambiental da edificação adequando a estrutura física às necessidades dos usuários. Para tanto foi desenvolvido projeto de intervenção de baixo custo e aplicável em outras escolas. Os métodos aplicados para o presente estudo foram: questionários, entrevistas, observações de traços físicos e levantamentos físicos, através de medições. Os resultados obtidos com o levantamento dos dados serviram como referencial para a elaboração do projeto de intervenção. Dentre os principais resultados obtidos com a intervenção está o da melhoria do índice de satisfação dos usuários das salas de aula; 50% das pessoas encontravam-se insatisfeitas com o desconforto do ambiente. Após a intervenção o número de insatisfeitos caiu para 35%, comprovando que houve melhoria no ambiente escolar, embora as condições de conforto não estejam totalmente contempladas. Na sala da secretaria, que sofreu uma intervenção diferenciada em relação às salas de aula, o índice de pessoas insatisfeitas caiu de 40% para 22%, caracterizando o ambiente como próximo do conforto térmico. Os resultados do projeto de intervenção foram importantes, considerando-se o objetivo de dar continuidade às pesquisas relacionadas ao conforto ambiental nas escolas da rede pública municipal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O espessamento intimal e a reestenose que ocorrem após os procedimentos de angioplastia transluminal percutânea e/ou o implante de stents representam uma causa freqüente de falência destes procedimentos. O principal achado patológico responsável pela reestenose parece ser a hiperplasia intimal, já que o dispositivo intravascular é resistente ao remodelamento arterial geométrico. O propósito deste estudo é avaliar, através da morfometria digital, o espessamento intimal presente nas regiões da parede arterial imediatamente proximal e distal ao implante de um stent metálico em configuração em “Z “ não recoberto ou recoberto com PTFE. Vinte e cinco suínos de raça mista, com seis a dez semanas de idade, pesando em média 20 kg foram divididos em três grupos. No grupo I, cinco animais foram submetidos à exposição cirúrgica retroperitoneal da aorta abdominal, aortotomia e manipulação com uma bainha introdutora de 12 F. O grupo II incluiu dez animais que foram submetidos ao implante de um stent metálico auto-expansível não recoberto. No grupo III, incluindo também dez animais, foram implantados stents recobertos com PTFE. Após quatro semanas, todos os animais foram sacrificados e o segmento aorto-ilíaco foi removido. Quatro animais foram excluídos do estudo por trombose da aorta (um animal do grupo II e três animais do grupo III). Para a análise morfométrica foram utilizados os testes não paramétricos de Wilcoxon e de Kruskal-Wallis, para as comparações, respectivamente, no mesmo grupo e entre os grupos. Foi adotado o nível de significância de 5% ( p< 0,05). Quando os espécimes da parede arterial, imediatamente proximal e distal aos stents foram comparados, nenhuma diferença estatisticamente significativa foi encontrada entre as áreas luminal, intimal, média ou índice intimal em cada grupo. Na comparação entre os grupos, as áreas intimal, média e o índice intimal não demonstraram variação estatisticamente significativa. Foram identificadas diferenças entre os grupos quanto às áreas luminais proximais (p = 0,036) e distais (p=0,044). Pelo teste de comparações múltiplas para Kruskal-Wallis (Teste de Dunn) identificou-se diferença significativa entre os grupos I e II. Entretanto, quando estas variáveis foram controladas pelo fator peso (relação área luminal/peso) a diferença não foi mais observada. Concluímos que, após quatro semanas, stents recobertos com PTFE induzem um espessamento intimal justa-stent similar ao observado com stents não recobertos ou com a simples manipulação arterial com uma bainha introdutora. Neste modelo experimental suíno, de curto seguimento, o revestimento com PTFE não foi responsável por adicional espessamento intimal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Devido às altas tensões envolvidas nos mecanismos de fadiga por contato, o uso de aços de alta dureza é uma exigência na fabricação de mancais de rolamento. Se a dureza de uma das partes em contato é baixa (sendo menor que 58 HRC), a ocorrência da descamação de camadas superficiais torna-se iminente no material menos duro. Estes defeitos superficiais podem, eventualmente, levar o componente a fraturar na direção radial se as tensões circunferenciais trativas forem relativamente elevadas. Os rolamentos que apresentam estes tipos de falhas são fabricados com o aço SAE 52100 temperado e revenido, com têmpera total. Recentemente tem sido sugerida a utilização do aço SAE 52100 processado por tratamento isotérmico para a obtenção de bainita inferior já que esta microestrutura apresenta boa tenacidade e resistência à fadiga associadas a uma alta dureza. Neste trabalho, foram realizados tratamentos térmicos utilizando o aço SAE 52100 a fim de obter microestruturas cujas matrizes fossem, predominantemente, martensita revenida ou bainita inferior. Para a condição martensítica, utilizou-se o tratamento térmico convencional de têmpera e revenido com três temperaturas de revenido para a obtenção de diferentes quantidades de austenita retida na matriz martensítica. Para a condição bainítica, utilizou-se o tratamento de austêmpera para a obtenção de bainita inferior com alto nível de dureza O comportamento mecânico do aço SAE 52100, tratado termicamente nas quatro condições, foi avaliado através de ensaio de tração e ensaio de impacto Charpy. O comportamento em fadiga, por sua vez, foi avaliado através de ensaios de propagação de trinca por fadiga realizados em corpos de prova tensão compacto. Para a determinação da influência da razão de carregamento (R=Kmin/Kmax) sobre o comportamento em fadiga este parâmetro foi variado entre 0,1 e 0,5. Foram realizadas análises fractográficas em todas as superfícies de fratura e de fadiga. Os resultados dos testes indicaram um melhor comportamento em fadiga para o aço SAE 52100 com microestrutura bainítica. No entanto para um R = 0,5, este material apresentou comportamento semelhante ao martensítico de mesmo nível de dureza na região limiar de fadiga. Observou-se o fenômeno de fechamento de trinca nos testes realizados com R de 0,1 e 0,3, sendo este efeito mais pronunciado para o menor valor de R.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação consiste em um estudo de caso realizado na Ediba S.A. – Edificações e Incorporações Barbieri, empresa do setor de construção civil localizada na cidade de Porto Alegre/RS. O principal objetivo do estudo é analisar a satisfação dos trabalhadores quanto aos principais fatores intervenientes em sua Qualidade de Vida no Trabalho (QVT), identificando aspectos que, se melhor gerenciados, poderiam propiciar melhorias em sua qualidade de vida, com reflexos no desempenho organizacional. As variáveis investigadas foram classificadas em Elementos Organizacionais, Ambientais e Comportamentais, segundo o modelo proposto por WERTHER e DAVIS (1983). A pesquisa de campo foi realizada através do levantamento da opinião de 112 colaboradores da empresa pesquisada. Para a análise estatística dos dados, foi utilizado o software SPSS (Statistical Package for Social Science). As conclusões do estudo apresentam os principais resultados extraídos da pesquisa, bem como sugestões de ações relacionadas com a melhoria da QVT dos profissionais pesquisados e, conseqüentemente, dos resultados organizacionais. Os resultados da pesquisa revelaram que os trabalhadores da Ediba sentem-se satisfeitos, embora não totalmente, com sua qualidade de vida. Todos os elementos de QVT investigados apresentaram resultados satisfatórios, sendo que o maior grau de satisfação dos trabalhadores foi demonstrado em relação aos Elementos Ambientais, seguindo-se dos Comportamentais e, por fim, dos Organizacionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é desenvolver um programa computacional, baseado no método dos elementos finitos, para simular situações de reforço e recuperação de peças de concreto armado. A linguagem Matlab é a ferramenta utilizada para a elaboração do programa. É uma linguagem de alta performance para computação técnica. Integra computação, visualização e programação em um fácil ambiente para uso, onde problemas e soluções são expressos em familiar notação matemática. A característica principal deste programa é de permitir alterações na modelagem numérica durante a análise do problema, podendo-se retirar ou acrescentar elementos da estrutura, aumentar ou diminuir rigidezes, alterar materiais, etc, viabilizando-se, assim, uma avaliação das diversas etapas ou hipóteses dos procedimentos de recuperação ou reforço de estruturas. O programa permite a mudança de vinculações do elemento estrutural, durante a análise. Além disto, é permitido não só incrementos de forças como incrementos de deslocamentos impostos à estrutura. O programa computacional utiliza duas etapas distintas, baseadas em um modelo elasto-viscoplástico. Na primeira etapa, faz-se a determinação da resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. Na segunda, busca-se determinar a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elastoplástico Para melhor representar o comportamento do concreto, quando submetido a carregamento de longa duração, utilizou-se um modelo de camadas superpostas. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Para verificar a precisão do programa computacional desenvolvido, comparam-se os resultados numéricos com resultados experimentais, cujos ensaios foram realizados no Laboratório de Ensaios e Modelos Estruturais do Programa de Pós-Graduação em Engenharia Civil da Escola de Engenharia da Universidade Federal do Rio Grande do Sul, e no Laboratório de Estruturas da Escola de Engenharia de São Carlos- USP. Nessas comparações, obtiveram-se ótimas aproximações entre os resultados numéricos e experimentais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho visa abordar um aspecto importante em um sistema de gestão empresarial - a mensuração dos custos relacionados à qualidade e a proposição de melhorias a partir da análise destes custos. Um dos obstáculos mais importantes para o estabelecimento e consolidação de programas de qualidade nas empresas é a idéia errônea de que alta qualidade implica, necessariamente, em alto custo. Na maioria das vezes, as organizações não possuem indicadores que mensurem tais custos, tomando decisões equivocadas em relação ao nível de qualidade a ser praticado em seus produtos ou serviços. Em diversos contextos, prevalece a ênfase no retomo imediato, sem se considerar os custos com perdas pela não-qualidade. Esta dissertação busca identificar e analisar os custos diretos relacionados à qualidade nas suas quatro grandes categorias. As primeiras duas categorias incluem os custos que aparecem quando a função qualidade falha (custos da não-qualidade). São os chamados custos de falhas internas e custos de falhas externas, de acordo com a situação do produto no instante da falha, se dentro da empresa ou após ter sido vendido aos clientes. As duas últimas categorias incluem os custos da função qualidade (ou custos da qualidade propriamente dita), divididos em custos de prevenção, englobando tudo o que é feito para prevenir defeitos, e custos de avaliação, que reúnem os esforços despendidos para remover do processo os produtos defeituosos. Para garantir a sua sobrevivência no mercado, empresas devem estar preparadas para medir seus custos de qualidade e de não-qualidade, visualizando oportunidades de redução de custos e tomada de ações para a melhoria contínua do ambiente produtivo, justificando assim o investimento em qualidade Apoiando-se numa sistemática estruturada,o trabalho faz a identificação e análise dos custos diretos relacionados à qualidade. Um estudo prático, realizado em uma indústria de balas no estado do Rio Grande do Sul, demonstra a importância estratégica e econômica da identificação, análise e gerenciamento desses custos, propondo melhorias decorrentes da análise das causas dos principais valores levantados, destacando ainda as melhorias propostas a partir desta análise na empresa em estudo. O estudo identificou que a principal categoria de custos relacionados à qualidade refere-se à categoria de custos das falhas internas que correspondem,em média, à 12% do faturamento da empresa. Além disso, o impacto na redução dos custos da não-qualidade ultrapassa o lucro líquido da empresa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo simular e analisar uma usina termelétrica a carvão em várias condições de funcionamento. A usina simulada neste trabalho é a AVV 1 localizada em Copenhague, Dinamarca. A AVV 1 é uma usina de geração de potência e aquecimento distrital que pode funcionar em várias condições de carga. A simulação da usina supracitada foi tema de um concurso de simuladores proposto no congresso ECOS 2003 realizado em Copenhague, Dinamarca. Para a realização deste trabalho foi construído um programa na linguagem FORTRAN 90. Cada componente da usina é modelado através de equações de balanço de massa e energia, e o sistema completo tem sua solução obtida pelo método de substituição sucessiva. Para viabilizar essa solução é necessário também implementar uma rotina de cálculo de propriedades do fluido de trabalho. No caso estudado, o fluido de trabalho da usina é a água e a formulação utilizada para o cálculo de suas propriedades nos diversos estados é a IAPWS IF-97. A usina é simulada em dois modos de operação: modo de condensação, onde ocorre apenas geração de eletricidade, e em modo de contrapressão, onde há geração de eletricidade e aquecimento distrital, conforme nomenclatura sugerida pela organização do concurso No modo de condensação, são feitas quatro séries de simulações variando a carga de 100% a 40%. Cada série contém um conjunto de hipóteses quanto à variação das eficiências isoentrópicas e pressões das turbinas em função da vazão mássica. No modo de contrapressão, a usina é simulada funcionando com 100% da carga. O programa desenvolvido calcula as propriedades para qualquer ponto de trabalho ao longo da planta, assim como a eficiência da mesma, a potência gerada, e todas as vazões mássicas pertinentes. Além disso, é feita também uma análise exergética da planta. A simulação demonstrou que a planta possui uma eficiência global de 42,02% com uma geração de 250,2 MW em 100% de carga no modo de condensação. Nessas mesmas condições, do ponto de vista exergético, a eficiência encontrada é de 37,21%. No modo de contrapressão, a usina apresenta uma eficiência exergética de 40,19% com um aproveitamento energético de 90,55%. Por fim, é possível também verificar a comportamento da eficiência da planta e a variação de água de resfriamento do condensador com a carga. Os resultados gerados são próximos àqueles encontrados pelos diversos pesquisadores que abordaram o problema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Muitos estudos sobre análise do risco de crédito foram feitos até recentemente, tendo como principal foco a previsão de falência. A insolvência das empresas devedoras, sem dúvida, é um grande problema para os concedentes de crédito, no entanto, a inadimplência não é um fato exclusivo do processo falimentar. Neste sentido, a presente investigação se propôs a prognosticar a ocorrência da inadimplência - aqui definida como a cobrança que está sendo realizada por via judicial - com as informações disponíveis no momento da análise de crédito, neste caso, os três últimos demonstrativos contábeis. A pesquisa foi realizada com uma amostra constituída de empresas industriais, especificamente da indústria de transformação, clientes de uma instituição financeira que receberam financiamento durante o período de 1996 a 1997, dividida entre adimplentes e inadimplentes; mediante o uso de dois métodos estatísticos de análise múltipla de dados, já consolidados em estudos desta natureza: análise discriminante linear e regressão logística; e com emprego de quocientes financeiros obtidos a partir das demonstrações contábeis. Os resultados demonstraram que há uma lacuna no que tange a análise financeira tradicional no processo de exame de crédito, que pode ser suprida com modelos quantitativos setoriais estimados com auxilio de métodos estatísticos, contribuindo para uma melhor qualidade de análise, com intuito de evitar a inadimplência, melhorando o resultado das instituições financeiras.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A relação entre tecnologia e competitividade é um ponto importante que desperta interesse acadêmico e prático sobre o assunto. Este estudo procura entender a função tecnologia num setor industrial com características bastante singulares. O Brasil, em função da característica de sua economia e com suas dimensões continentais, é um país onde predomina o transporte coletivo de passageiro via rodoviária. O principal meio de transporte utilizado é o ônibus. A indústria de montadora de carrocerias de ônibus é uma indústria onde todas as montadoras são empresas nacionais. Este trabalho estuda uma das quatro empresas nacionais que atuam no setor, sob o aspecto tecnológico. Este estudo propõe-se a entender a função tecnológica e relacioná-la à posição de liderança que a empresa estudada, no caso a Marcopolo S/A, ocupa no mercado de montadoras de carrocerias de ônibus. Liderança esta refletida pela competitividade e performance mercadológica da empresa. A função tecnologia e suas correlações na empresa é o principal componente de análise do modelo utilizado. Através do modelo utilizado e do estudo de caso realizado verificou-se que a preocupação e o desenvolvimento tecnológico fazem da empresa uma líder de mercado ano após ano, demonstrando que a adoção de tal entendimento é um ponto fundamental para seu desempenho de hoje. Fruto disto também, hoje é uma multinacional com unidades fabris na América do Sul, América Central e Europa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação estabelece as principais características do comportamento da maioria dos eleitores brasileiros e procura demonstrar que existe uma “razão” que move as escolhas eleitorais. Para tanto, utiliza-se da produção da ciência política brasileira sobre o comportamento eleitoral e de pesquisas realizadas em diversas cidades do interior do Rio Grande do Sul. O principal objetivo deste trabalho é o de compreender como se processam as escolhas eleitorais, tendo em vista que a maioria do eleitorado brasileiro não acredita na política, mantém-se distante dos mecanismos de participação e vota na pessoa do candidato. O pressuposto básico é de que as escolhas eleitorais da maior parte da população, em especial, as das camadas populares, são motivadas por uma cultura política cética e personalista, que tem sua origem e manutenção nos condicionantes históricos-estruturais da política brasileira. As evidências indicam que a maior parte do eleitorado, define o destino do voto de forma sensível e emocional, a partir dos atributos simbólicos dos candidatos e das imagens difusas das competições eleitorais. Nesse contexto, estabelece-se a lógica do comportamento da maioria dos eleitores brasileiros, que pode ser interpretado como emotivo, tendo em vista que as preferências eleitorais tendem a direcionar-se aos candidatos que são mais “conhecidos positivamente”, e que, ao mesmo tempo, desfrutam de uma avaliação positiva de confiança, afinidade e simpatia. Nesses termos é que a imagem de um candidato torna-se elemento-chave da decisão eleitoral. O eleitor emotivo vota no candidato que conhece positivamente e inspira confiança, porque o voto é resultado de uma cultura política personalista e descrente. O eleitor brasileiro vota em quem “conhece”, porque “confia”.