972 resultados para Avanço mandibular


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Pós-graduação em Administração da Universidade Municipal de São Caetano do Sul

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese apresentada ao Programa de Pós-graduação em Administração da Universidade Municipal de São Caetano do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Pró-Reitoria de Pesquisa e Pós-Graduação em Administração, Universidade Municipal de São Caetano do Sul, para obtenção do título de mestre

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudou-se, através do método eletroquímico de permeação, a difusão de hidrogênio no ferro puro e no aço DIN 90MnV8. Observou-se nestes materiais, que o coeficiente aparente de difusão de hidrogênio diminui no decorrer dos transientes de permeação, tendo-se interpretado este comportamento como causado pela presença de armadilhas reversíveis. Deduziu-se, para transientes de permeação obtidos entre dois estados estacionários de difusão, que a variação da concentração de hidrogênio preso a armadilhas reversiveis é dada por: Delta Ca = Na. In [(1+alfa)1/2 dividido por (1+beta)1/2], alfa = K.Co/p beta=K.Cl/p sendo Na a densidade de armadilhas; k e p, os parâmetros de captura e de liberação de uma armadilha e Co e Cl, a concentrasão inicial e final de H. Mediu-se, no ferro recozido, um coeficiente médio de difusão de hidrogênio de 6,4.10-5 cm²/s. A deformação com 50% de trabalho a frio no ferro reduz este valor em aproximadamente uma ordem de grandeza. Verificou-se no aço DIN 90MnV8 que o coeficiente de difusão de hidrogênio aumenta com o aumento dn temperatura de revenimento após a têmpera, atingindo o valor máximo de 7,0.10-6 cm²/s no aço esferoidizado. A dependência térmica do coeficiente de difusão no aço DIN 90MnV8 esferoidizado pode ser expressa por: D = 1,95 (+0,49) exp (-30,43kJ/mol.R.T.) (cm²/s) e neste mesmo aço temperado e revenido com 55RC de dureza por : D=0,29 (+- 0,05 ) exp (-28,47kJ/mol.R.T.) ( cm²/s). Uma nova metodolagia fractomecânica foi introduzida, a qual permite a determinação da cnncentração crítica de hidrogênio necessária para provocar o avanço de uma trinca estacionária. Observou-se no aço DIN 9OMnV8, que a concentração crítica de hidrogênio diminui com o aumento da dureza do aço e é menor quando um valor maior de KI é aplicado. O modo de fratura apresentado Por este aço revelou ser independente da concentração de hidrogênio e do valor de KI, sendo função unicamente de sua dureza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No processo de soldagem TIG (Tungstênio Inerte Gás), um dos fatores que influenciam o formato do cordão de solda é o ângulo da extremidade do eletrodo. Para estudar o comportamento do arco elétrico em função da geometria de ponta do eletrodo e suas conseqüências nos cordões de solda, efetuaram-se soldagens sobre corpos de prova sem deposição de material (bead-on-plate) através de parâmetros controlados e a mecanização do processo. Parâmetros tais como vazão do gás, velocidade de avanço da tocha e comprimento do arco foram testados para verificar a atuação em conjunto com o ângulo do eletrodo. Pela análise metalográfica (macrografia) estudaram-se os perfis dos cordões de solda, verificando-se que o ângulo exerce uma influência significativa na característica do arco tensão-corrente, na largura e profundidade de penetração da solda. Para maiores ângulos de extremidade do eletrodo obteve-se aumento na penetração, diminuição da tensão e largura do cordão de solda para uma mesma intensidade de corrente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A região costeira do Brasil Meridional, definida como Provincia Costeira do Rio Grande do Sul é constituida por dois elementos geológicos maiores, o Embasamento e a Bacia de Pelotas. O primeiro, composto pelo complexo cristalino pré-cambriano e pelas sequências sedimentares e vulcânicas, paleozóicas e, mesozoicas, da Bacia do Paraná, comportando-se como uma plataforma instável durante os tempos cretácicos, deu origem ao segundo, através de movimentações tectônicas. Desde então a Bacia de Pelotas, uma bacia marginal subsidente, passou a receber a carga clástica derivada da dissecação das terras altas adjacentes as quais constituíam parte do seu embasamento que na parte ocidental atuou no inicio como uma área levemente positiva, estabilizando-se após. A sequência sedimentar ali acumulada, cerca de I 500 metros de espessura, é fruto de sucessivas transgressões e regressões. Controladas no princípio pelo balanço entre as taxas de subsidência e de sedimentação, a partir do Pleistoceno estas transgressões e regressões passaram a ser governadas pelas variações glacio-eustáticas ocorridas no decorrer da Era Cenozóica A cobertura holocênica deste conjunto é considerada como outro elemento geológico importante da provincia costeira pelo fato de compor a maioria das grandes feiçoes morfograficas responsáveis pela configuraçao superficial da região. Ela é constituida por um pacote trans-regressivo cuja porção superior expõe-se na planície litorânea, encerrando uma série de unidades lito-estratigraficas descontinuas e de idade variável resultantes do deslocamento de vários ambientes de sedimentação por sobre a mesma região. O estabelecimento de sua história geológica somente tornou-se possivel após detida análise geomorfológica. A planicie arenosa litorânea que separa a Lagoa dos Patos do Oceano Atlântico, revelou-se composta pela sucessão de quatro sistemas de barreiras, constituindo a denominada Barreira Múltipla da Lagoa dos Patos, cuja origem está diretamente relacionada às oscilações eustáticas que se sucederam na região,durante os últimos 6 000 anos, após o final da Transgressão Flandriana. A primeira barreira formou-se durante o nivel máximo atingido pelo mar no final da grande transgressão holocênica, construida a partir de longos esporões arenosos ancorados aos promontórios existentes na entrada das várias baias que ornamentavam a costa de então. Sobre tais esporões acumularam-se, durante pequenas oscilações do nivel do mar, extensos depósitos arenosos de natureza eólica Outra barreira foi desenvolvida a partir da emersão de barras marinhas durante a fase regressiva que se sucedeu, aprisionando um corpo lagunar sobre um terraço marinho recém exposto. Ainda no decorrer desta transgressão, grandes quantidades de areia trazidas da antepraia foram mobilizadas pelo vento construindo grandes campos de dunas sobre a barreira emersa.Na área lagunar, igualmente afetada pela regressão, depósitos lagunares e paludais foram acumulados sobre o terraço marinho. Assim estruturada, a barreira resistiu a fase transgressiva subsequente quando o aumento do nivel do mar foi insuficiente para encobri-Ia. Na margem oceânica a ação das ondas promoveu a formação de falésias, retrabalhando o material arenoso e redistribuindo-o pela antepraia. Na margem da Lagoa dos Patos de então, o avanço das aguas causou a abrasão do terraço marinho parcialmente recoberto por depósitos paludais e lagunares. Nova fase regressiva ocasionou o desenvolvimento de outra barreira no lado oceânico isolando uma nova laguna enquanto que na margem da Lagoa dos Patos emergia um terraço lagunar. Obedecendo a este mesmo mecanismo a quarta barreira foi acrescentada a costa oceânica e um segundo terraço lagunar construido na borda da Lagoa dos Patos. O constante acúmulo de sedimentos arenosos que se processou na área após a transgressão holocênica, através de processos praiais e eólicos desenvolvidos num ambiente de completa estabilidade tectônica, aumentou consideravelmente a área emersa da província costeira A parte superior da cobertura holocênica constitui assim uma grande sequência regressiva deposicional, que teve como principal fonte os extensos depósitos que recobriam a plataforma continental adjacente. De posse de tais elementos, a costa atual do Rio Grande do Sul é uma costa secundária, de barreiras, modelada por agentes marinhos, conforme a classificação de Shepard. A tentativa de correlaçao entre as várias oscilaçoes eustáticas deduzidas a partir da análise geomorfológica da região ( com aquelas que constam na curva de variaçao do nlvel do mar o corrida nos últimos 6 000 anos, apresentada por Fairbridge, revela coincidências encorajadoras no sentido de estender o esquema evolutivo aqui proposto, como uma hipótese de trabalho no estudo dos terrenos holocênicos restantes da Província Costeira do Rio Grande do Sul. A sua utilização tornará muito mais fácil a organização crono-estratigráfica das diversas unidades que nela se encontram.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A implementação dos instrumentos previstos na política de recursos hídricos representa um grande avanço para a modernização do setor. Porém, especialmente em relação à cobrança pelo uso da água, persistem muitas dúvidas, receios e inquietações. Os objetivos, inclusive estabelecidos na própria legislação, poderão ser alcançados com o uso da cobrança pelo uso da água? Efetivamente, qual será a destinação dos recursos obtidos com a cobrança? Quais serão os impactos da cobrança pelo uso da água nas diversas atividades econômicas? O uso da cobrança, como instrumento de gestão, aumentará a exclusão social? São questões que suscitam debates, muitas vezes apaixonados, e que tem inspirado a realização de diversos estudos teóricos e até mesmo conduzido a formulação de leis no nível de cada Estado. O objetivo central desta pesquisa é proceder a uma análise do arcabouço teórico-conceitual da cobrança pelo uso da água como um instrumento de gestão, discutir os limites da abordagem econômica, analisar a experiência internacional e, devido à grande influência da 'escola francesa' na definição do modelo brasileiro, avaliar a evolução do sistema naquele país. Como no Brasil, a instalação do sistema de gerenciamento de recursos hídricos está em marcha, particularmente no que se refere à cobrança pelo uso da água, também é objetivo desta pesquisa analisar a situação atual do processo de implementação no nível Federal e nas diversas unidades da federação. Para conectar as discussões das partes precedentes com a realidade, simulam-se diferentes critérios de cobrança pelo uso da água na bacia hidrográfica do rio dos Sinos, localizada no Rio Grande do Sul. O trabalho conclui que, apesar da cobrança pelo uso da água ter sua fundamentação conceitual assentada na economia, esse ramo da ciência deve, apenas de forma subsidiária, aportar informações para as definições do tipo quanto cobrar, de quem cobrar, etc. As definições que norteiam a cobrança são, antes de tudo, decisões políticas e por essa razão devem ser consideradas em um processo de negociação social, envolvendo os diversos atores da bacia hidrográfica. Além disso, apesar de ser um instrumento bastante poderoso, a cobrança pelo uso da água não deve ser vista como um instrumento de gestão isolado e capaz de resolver todas as questões relacionadas com o planejamento e gestão de recursos hídricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proposição: avaliar histologicamente o reparo ósseo, especialmente a velocidade de cicatrização, após ostectomias a fresa cirúrgica e a laser de Er:YAG, sem contato, em diferentes intensidades de energia, in vivo. Materiais e método: 20 ratos (Novergicus Cepa Wistar), divididos em cinco grupos de quatro animais, foram submetidos a ostectomias da cortical óssea do corpo mandibular a fresa cirúrgica e a laser de Er:YAG (400 mJ/6 Hz), sem contato, no lado direito; no lado esquerdo foram realizadas ostectomias a laser de Er:YAG nas intensidades de 350 mJ/6 Hz e 300 mJ/6 Hz, sem contato. O laser foi aplicado sob irrigação constante. Foi utilizada matriz metálica para padronização das cavidades. Os tempos cirúrgicos foram sete, 14, 45, 60 e 90 dias pós-operatórios, e os espécimens analisados ao microscópio óptico. Resultados: as ostectomias a fresa cirúrgica apresentaram reparo ósseo a partir do endósteo cortical e do trabeculado remanescente. Aos 45 dias, observou-se o restabelecimento cortical, e após remodelação óssea. O reparo ósseo após irradiação a laser apresentou neoformação óssea a partir da superfície externa e endósteo corticais. Áreas de dano térmico foram verificadas nas três condições de irradiação, limitando-se a superfície. Estas áreas não foram mais evidenciadas aos 60 dias pós-operatórios. Neste período e adiante, verificou-se remodelação óssea. Conclusão: o reparo ósseo após ostectomias a laser de Er:YAG ocorreu através de corredores de cicatrização. O reparo ósseo após ostectomias a fresa cirúrgica tende a forma centrífuga. Já o reparo ósseo após irradiação a laser de Er:YAG tende a forma centrípeta. A velocidade de reparo foi maior nas ostectomias a fresa cirúrgica do que nas ostectomias a laser. Aos 90 dias, verificou-se reparo ósseo comparativamente homogêneo nas quatro condições propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O fortalecimento do setor de serviços na economia mundial tem exigido o desenvolvimento de modelos apropriados para este setor, onde as informações podem criar o suporte necessário para administradores avaliarem os resultados e a qualidade dos serviços de acordo com as demandas dos clientes. Este trabalho apresenta uma adaptação do modelo de Desdobramento da Função Qualidade (QFD). A proposta incorpora os princípios do Marketing de Relacionamento e foi desenvolvida para auxiliar no planejamento da qualidade no setor de serviços, mais especificamente no segmento de Shopping Centers. O modelo proposto foi testado em um Estudo de Caso realizado junto ao Shopping Center Iguatemi, onde foi estudada a relação entre administradores e lojistas. O objetivo do Estudo de Caso foi entender e atender às demandas dos lojistas. A abordagem proposta representa um avanço teórico importante, pois incorpora os princípios do marketing de relacionamento ao desdobramento da qualidade. O resultado é um modelo mais completo. Esse modelo conduz a um plano de ação abrangente, que permite ao mesmo tempo atender às demandas dos lojistas e reforçar a relação gerência – lojistas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, a sociedade tem experimentado uma grande transformação devido à crescente incorporação da tecnologia em seu cotidiano. Estas mudanças demonstram o grande avanço tecnológico experimentado nas últimas décadas, principalmente na área de Redes e Telecomunicações. Este contexto tem gerado uma crescente procura por profissionais desta área, com um perfil que privilegie, além do conhecimento técnico, outras habilidades consideradas importantes, como o pensamento crítico, o auto-aprendizado e a habilidade para trabalhar em equipe, habilidades estas que não são normalmente focadas nos cursos atuais. Estas habilidades são estimuladas nas abordagens centradas nos alunos, com destaque ao Problem-Based Learning (PBL), uma abordagem na qual o aluno é exposto a problemas, sem nenhum conhecimento prévio, e que, para resolvê-los, precisa pesquisar e analisar novas informações, visando sua aplicação na solução dos mesmos. Apesar da grande utilização do PBL em diversas instituições no mundo, existem poucas ferramentas de software que dão apoio para sua total aplicação. Por outro lado, mesmo sendo bem estruturado, o PBL não sugere indicações de como assimilar melhor novas experiências, de como buscar o conhecimento em experiências anteriores e como desenvolver problemas atuais e interessantes com características reais. Estas dificuldades podem ser minimizadas com a utilização do CBR (Case-Based Reasoning). Entre as aplicações CBR desenvolvidas especificamente na área de Redes de Computadores, pode-se destacar o sistema DUMBO, um sistema CBR, desenvolvido na UFRGS, especificamente para o diagnóstico de problemas em Redes de Computadores. A integração com o DUMBO permite à abordagem PBL ser aplicada com maior eficiência, utilizando sua biblioteca de casos como ferramenta de pesquisa e para a sugestão de novos problemas a partir de casos reais e atuais. Com base nestas afirmações, este trabalho apresenta a proposta e o desenvolvimento de um protótipo de ambiente de aprendizado para o ensino de Redes de Computadores, utilizando a abordagem PBL em conjunto com a abordagem CBR através do sistema DUMBO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta pesquisa é verificar com que intensidade um conjunto préestabelecido de problemas e de ações se manifesta ou é utilizado quando da adoção de novas tecnologias de informação, bem como identificar a tecnologia de informação utilizada nas organizações. A escolha do tema justifica-se pela importância atual da tecnologia de informação. Tal tecnologia é vista hoje como um dos fatores, às ve zes até determinante, que pode proporcionar vantagem competitiva para uma organização em seu cenário de atuação. Essa perspectiva está exigindo de seus administradores um amplo entendimento dos negócios da organização. No ambiente técnico, o constante e crescente avanço coloca novos desafios para esses profissionais, pois devem implementar novas tecnologias, alinhando-as à estratégia de negócios, paralelamente à complementação de investimentos e culturas já existentes. Os respondentes foram os profissionais encarregados do gerenciamento desta tecnologia. Eles responderam a um conjunto de questões que abordavam diversos aspectos relativos à utilização desta tecnologia nas respectivas organizações. A coleta de dados foi realizada por entrevista pessoal e via correio, em 33 Cooperativas Agropecuárias do Rio Grande do Sul, que participaram da pesquisa tipo Survey. A partir da análise quantitativa dos dados coletados, chegou-se a um perfil da tecnologia de informação em diversos aspectos, tais como internet, softwares mais utilizados, entre outros. Identificaram-se também quais os problemas e ações mais freqüentes e qual o sucesso das ações adotadas. A situação das organizações pesquisadas pode ser considerada, em alguns aspectos, como compatível aos padrões nacionais, entretanto a utilização da tecnologia de informação pode ser caracterizada como tradicional e conservadora, preocupada essencialmente com os processos operacionais.