14 resultados para Inovadora
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
As condições atuais do mercado fazem com que as empresas tenham que desenvolver competências para lidar com a tecnologia de produtos e processos e, principalmente, com o ritmo de evolução da tecnologia, ou seja, com as mudanças tecnológicas que ocorrem no seu setor de atividade. O objetivo deste trabalho é identificar e avaliar a capacidade tecnológica de três PMEs de setores tradicionais. Para tanto, será estudada a indústria de autopeças, um setor tradicional do ponto de vista tecnológico. Considerando que capacidade tecnológica seja a aptidão para lidar com a tecnologia, entende-se que as empresas podem ter habilidade para assimilar, modificar ou gerar tecnologia. A problemática da avaliação de PMEs é abordada sob três fatores: base tecnológica, papel do empresário na escolha de estratégia tecnológica voltada à inovação e evidência de esforços inovativos, sejam eles mudanças significativas ou simples processos de resolução de problemas. A pesquisa mostrou que as empresas comportam-se de maneira variada no que se refere aos mecanismos de gestão e ao desempenho tecnológico. A partir da análise, foi possível constatar algumas características da empresa mais inovadora, as quais são vistas como prováveis “sinalizadores” da capacidade de modificar e adaptar tecnologias. Alguns destes sinais são: 1) diversos exemplos de mudanças em produtos e processos, sejam eles mais ou menos significativos; 2) esforços de atualização tecnológica, perceptíveis através da ênfase dada à interface externa (tipo de relacionamento, intensidade e continuidade dos contatos com clientes, fornecedores, empresas, instituições), à geração e à difusão de conhecimento (aprendizagem); e 3) preocupação em ampliar a sua capacidade para resolver e prever problemas, desenvolvendo mecanismos próprios baseados em interação, participação e autonomia das pessoas, inclusive, e principalmente, daqueles que realizam as atividades produtivas. Este tipo de conduta fica evidente em uma base tecnológica forte, noestilo gerencial do empresário (inovador) e na familiaridade com a realização de mudanças na tecnologia.
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
A organização do trabalho apresenta-se como um elemento particular nos espaços de trabalho. No sistema capitalista, muitas pesquisas analisaram e descreveram a relação entre a organização do trabalho e os danos à saúde mental dos trabalhadores. No Brasil, atualmente, as transformações que o trabalho vem sofrendo impulsionaram novas propostas para gerar emprego e renda a um grande número de trabalhadores, desempregados, fora do mercado formal de trabalho. Esses trabalhadores encontraram a reinserção social através de experiências econômicas de caráter solidário. Mas o trabalho solidário somente é possível com novas formas de organização do trabalho e de relação com a produção. Essas formas, para tornarem-se uma organização econômica inovadora, devem construir também uma nova relação com a saúde e o trabalho, possibilitando uma organização autogestionável, controlada pelos trabalhadores. Esta pesquisa aborda as vinculações entre o prazer e/ou sofrimento e a organização do trabalho no cotidiano dos(as) trabalhadores(as) de uma cooperativa. Como proposta do estudo articulamos uma interpretação macrossocial com uma análise microssocial nas atividades de corte, costura e serigrafia desenvolvidas no empreendimento solidário. Obtivemos, como considerações finais, a identificação dos trabalhadores com o cooperativismo, bem como a possibilidade das relações solidárias e do gerenciamento transformando o sofrimento em prazer, favorecendo a saúde mental através da rediscussão constante da organização do trabalho e da criação de novos modos de viver o trabalho.
Resumo:
A Logística ocupa lugar de destaque na atual administração de empresas. A grande maioria das atividaes humanas, em diferentes graus, é influenciada pelas atividades logísticas que adquirem, desta forma,status estratégico no gerenciamento das empresas. No âmbito da Logística, novas formas de distribuição surgem como alternativas de melhor desempenho, pois esta é uma área que oferece muitas possibilidades de melhorias que podem resultar em benefícios para toda a Cadeia de Suprimentos. Na busca destas melhorias, surge um novo formato de distribuição denominado Broker. As exigências ditadas pelas novas necessidades de eficiência fazem surgir novas formas das indústrias atenderem às necessidades de um mercado com diferentes demandas. O Broker é uma destas novas formas de atender às exigências impostas por um mercado mais competitivo, possibilitando à indústria chegar ao varejo de modo diferenciado. Este trabalho apresenta as vantagens desta nova forma de distribuição denominada Broker em relação aos canais de distribuição tradicionais, mais precisamente ao atacadista/distribuidor Tendo em vista o fato de que não há registro sobre esse formato de distribuição nos moldes em que se apresenta na prática aqui no Brasil, este estudo inclui uma definição de Broker neste contexto, analisa suas formas de atuação, propõe classificação sugerida pelas diferentes maneiras de atuação do mesmo e aponta para um modelo de análise desta inovadora forma de distribuição. Este trabalho abrange uma revisão bibliográfica, uma pesquisa em empresas que já operam como Broker e , finalmente, uma proposta de análise deste formato de distribuição sob ótica das vantagens que apresenta em comparação ao atacadista/distribuidor, forma consagrada da indústria atender ao varejo. As conclusões do trabalho indicam que esta nova forma de distribuição apresenta vantagens em relação às formas já descritas e utilizadas e oferece possibilidades de ganhos para toda a Cadeia de Suprimentos.
Resumo:
The rapid growth of urban areas has a significant impact on traffic and transportation systems. New management policies and planning strategies are clearly necessary to cope with the more than ever limited capacity of existing road networks. The concept of Intelligent Transportation System (ITS) arises in this scenario; rather than attempting to increase road capacity by means of physical modifications to the infrastructure, the premise of ITS relies on the use of advanced communication and computer technologies to handle today’s traffic and transportation facilities. Influencing users’ behaviour patterns is a challenge that has stimulated much research in the ITS field, where human factors start gaining great importance to modelling, simulating, and assessing such an innovative approach. This work is aimed at using Multi-agent Systems (MAS) to represent the traffic and transportation systems in the light of the new performance measures brought about by ITS technologies. Agent features have good potentialities to represent those components of a system that are geographically and functionally distributed, such as most components in traffic and transportation. A BDI (beliefs, desires, and intentions) architecture is presented as an alternative to traditional models used to represent the driver behaviour within microscopic simulation allowing for an explicit representation of users’ mental states. Basic concepts of ITS and MAS are presented, as well as some application examples related to the subject. This has motivated the extension of an existing microscopic simulation framework to incorporate MAS features to enhance the representation of drivers. This way demand is generated from a population of agents as the result of their decisions on route and departure time, on a daily basis. The extended simulation model that now supports the interaction of BDI driver agents was effectively implemented, and different experiments were performed to test this approach in commuter scenarios. MAS provides a process-driven approach that fosters the easy construction of modular, robust, and scalable models, characteristics that lack in former result-driven approaches. Its abstraction premises allow for a closer association between the model and its practical implementation. Uncertainty and variability are addressed in a straightforward manner, as an easier representation of humanlike behaviours within the driver structure is provided by cognitive architectures, such as the BDI approach used in this work. This way MAS extends microscopic simulation of traffic to better address the complexity inherent in ITS technologies.
Resumo:
Esta tese aborda o tema estratégia de marketing, enfocando sua formulação e implementação. Seus objetivos estão centrados no desenvolvimento de um modelo teórico de formação da estratégia de marketing, apresentando e definindo os elementos e as inter-relações necessárias para as empresas construírem e desenvolverem estratégias de marketing, bem como os antecedentes e resultados do processo da estratégia. A fim de atingir tais objetivos, elaborou-se um método que cumpre duas etapas: uma pesquisa exploratória e qualitativa e outra pesquisa descritiva e quantitativa. A etapa exploratória contempla a construção de um Modelo Conceitual Teórico preliminar, a partir de revisão bibliográfica, baseando-se especialmente em dois modelos de formação da estratégia de marketing, o de Menon et al. (1999) e o de Noble e Mokwa (1999), e de entrevistas em profundidade com executivos. A etapa descritiva, por sua vez, constitui-se de pesquisa em 200 empresas brasileiras, aplicando questionário construído e testado na etapa anterior, com a finalidade de validar o construto inicialmente construído, através da Modelagem de Equações Estruturais. A análise dos resultados da pesquisa demonstrou as variáveis significativas, bem como as suas relações para a construção do modelo de formação da estratégia de marketing. Neste modelo, verificou-se que os antecedentes da estratégia são formados por cultura organizacional inovadora e importância da estratégia. O processo de formulação e implementação é composto por comprometimento, comunicação e integração dos grupos de trabalho, alternativas estratégicas e ativos e competências organizacionais. Os resultados deste processo correspondem ao desenvolvimento de aprendizagem organizacional e de criatividade, como também, ao desempenho financeiro e de mercado. A inter-relação dessas variáveis resulta no modelo de formação da estratégia de marketing. Ainda, constatou-se que este modelo sofre influência de um ambiente externo turbulento, bem como do poder dos intermediários. Por fim, esta pesquisa colabora para o desenvolvimento da área de marketing no país, ao construir um modelo teórico para a formulação e implementação de estratégias, a partir da realidade empresarial brasileira.
Resumo:
Na tentativa de encontrar estratégias economicamente sustentáveis, muitas organizações vêm buscando diversas alternativas. Em uma dessas alternativas, as organizações tendem a lançar mão de práticas cooperativas de gestão, visando complementar suas potencialidades. Os relacionamentos de parceria ou cooperação buscam melhorar a capacidade das organizações nas suas relações de interdependências, na tentativa de melhorar a eficácia organizacional. Muitos estudos vêm corroborando essa linha de pensamento. A proposição central das teorias expostas é que as organizações inseridas em relacionamentos interorganizacionais, em geral, e em redes, em particular, têm maior probabilidade de conquistarem vantagens competitivas sustentáveis. No entanto, esses estudos são fragmentados, o que dificulta a compreensão sobre o todo. Poucos têm sido os trabalhos empíricos, no que se refere à análise das formas de cooperação horizontal. Este trabalho tem o objetivo de identificar como as organizações se estruturam em seus relacionamentos interorganizacionais, de modo que se possa contribuir para a melhor consolidação da teoria existente. Para isso, buscou-se descobrir como essas novas formas de organizações surgiram, quais são os fatores que influenciam as empresas a aderirem a esse processo de cooperação, como se estruturam esses relacionamentos horizontais e qual a performance das organizações inseridas nesses relacionamentos. Para esta análise, foram estudadas 110 empresas pertencentes a cinco diferentes tipos de redes horizontais. Os dados foram coletados por meio de 28 entrevistas e de 110 questionários aplicados nas empresas pertencentes às redes e situadas em 25 municípios diferentes no Estado do Rio Grande do Sul. Os dados foram analisados, utilizando-se múltiplos métodos (estudos de casos, análise fatorial, estatística descritiva e análise de regressão). Os resultados demonstram que as redes analisadas foram criadas como estratégias de sobrevivência no mercado. Sendo assim, as empresas ingressaram nas redes, buscando alavancar os seus negócios dentro de um ambiente que elas pudessem classificar como mais confiável e seguro. Não foram valorizadas variáveis, como inovação e aprendizagem, como determinantes do ingresso. Observa-se, assim, uma tentativa para a formação das redes com um caráter de crescimento e proteção contra possíveis mudanças ambientais, ou seja, o ingresso na rede gera uma percepção de segurança maior em relação às nuanças ambientais. Dessa forma, as redes têm capacidade de agregação de valor limitada. Esse caráter limitador das redes reflete na ausência de suas perspectivas estratégicas de crescimento qualitativo, criando estruturas meramente executoras de atividades rotineiras. Com isso, as redes reduzem as incertezas do ambiente para as organizações, mas não são guias para a formação de novas formas de agregação de valor. As redes estudadas são formadas, em sua maioria, por atores denominados "empresários" que visam, em primeiro lugar, atingir os seus objetivos individuais em rede e, em seguida, garantir, através dos mecanismos de controle, que esses objetivos não sejam perdidos por ações oportunísticas de outros atores. Apesar de as redes estudadas não almejarem novos benefícios coletivos, observou-se que a formação das redes constituiu-se em uma excelente alternativa estratégica para a sobrevivência dos atores. Assim, as constatações de caráter limitante do impacto das redes no desempenho das organizações nela inseridas não ofuscam essa forma inovadora de estruturação e nem as suas repercussões para a sociedade em geral.
Resumo:
Este trabalho tem como objetivo o estudo e o desenvolvimento de um transdutor magnético de posição, cujo princípio de funcionamento é baseado na relação entre a distribuição do fluxo magnético em sua estrutura, provido por uma fonte de fluxo magnético constante, c.c. ou c.a., e a posição linear da parte móvel do transdutor ao longo de sua direção de deslocamento ou excursão. O transdutor pode ter entreferros de medição para medir a indução magnética nas culatras laterais, com fluxo magnético de excitação constante, c.c. ou c.a., ou não ter entreferros de medição, caso em que apenas fluxo magnético de excitação c.a. é empregado. Em ambos os casos, com fluxo magnético de excitação c.a., bobinas exploradoras foram usadas para medir o fluxo magnético estabelecido nas culatras de acordo com a posição da parte móvel do transdutor. Para o primeiro caso foi desenvolvido um protótipo no qual o material das culatras é aço maciço. Para o segundo foram desenvolvidos dois protótipos, um com barra de aço maciça, e o outro com núcleo de lâminas de Fe-Si. Além de se desenvolver uma modelagem analítica para estudar o transdutor, empregou-se, como ferramenta auxiliar de simulação, uma modelagem eletromagnética por elementos finitos. Os resultados teóricos, simulados e experimentais são esclarecedores e demonstram que o transdutor confeccionado com lâminas de Fe-Si e excitação através de fluxo magnético c.a. apresenta uma saída linear. É demonstrado também que a metodologia proposta e utilizada na modelagem e na concepção do transdutor são adequadas e indicam o domínio da teoria e da tecnologia propostas. As configurações sugeridas são extensivamente analisadas por este trabalho No caso do transdutor com fluxo magnético c.a. proposto e resultante desse estudo, sua topologia pode ser considerada inovadora, não sofrendo um efeito de histerese no seu sinal de saída devido à histerese magnética de suas culatras ferromagnéticas como acontece no transdutor com fluxo magnético c.c.. Isso, entre outras razões, ensejou o depósito de sua patente. Adicionalmente, é robusto, de fácil confecção, com enrolamentos que não requerem uma montagem de precisão como em outros transdutores eletromagnéticos de posição, e de baixo custo.
Resumo:
A velocidade de veículos em vias públicas pode ser obtida de diversas formas. A técnica mais usada é de laços magnéticos, onde se instalam sensores sob o asfalto. Entretanto, esta técnica apresenta desvantagens, tais como, a não detecção de motocicletas (o campo magnético gerado por este tipo de veículo é imperceptível ao sistema) e dificuldade de manutenção da via (se o órgão publico tiver que mexer numa rede cloacal que passa perto dos sensores, por exemplo, pode ser necessário reinstalá-los). Nesse contexto, este trabalho propõe-se a discutir uma nova maneira de se calcular a velocidade de veículos, através do processamento de imagens. Para isto, torna-se fundamental conhecer os conceitos que envolvem as técnicas mais utilizadas (além dos laços magnéticos, a captura de dois quadros consecutivos e o sistema Doppler), os equipamentos disponíveis no mercado (Pardais, Lombadas Eletrônicas, Bandeiras, Caetanos e Radares) e a forma como o INMETRO faz a aferição destes equipamentos. O estudo apresenta, igualmente, os principais fundamentos relacionados ao processamento digital de imagens, com especial atenção para detecção de bordas, de forma que seja possível avaliar a nova técnica proposta, que calcula a velocidade a partir de um único quadro. O presente trabalho objetiva apresentar o Pardalzito como alternativa técnica inovadora para aplicação de um, sistema que implementa esta idéia na prática.
Resumo:
O uso de substâncias psicoativas está em crescimento no mundo, sendo grande a sua prevalência na população jovem. A adolescência é conhecida por ser um período de vulnerabilidade para o uso de drogas, e os danos em conseqüência do seu uso são de forte impacto na vida dos adolescentes. Portanto, devem ser intensos os investimentos em intervenções para essa condição. Recentemente, algumas intervenções focadas em habilidades cognitivas têm sido incorporadas aos tratamentos, como, por exemplo, o treinamento de habilidades de enfrentamento e de estratégias de recusa à oferta de drogas. Nessa perspectiva, o desenvolvimento de jogos terapêuticos que possam promover tais habilidades é uma alternativa inovadora e dinâmica para o tratamento de adolescentes usuários de drogas. A presente dissertação, composta por dois artigos, teve por objetivo desenvolver um jogo terapêutico para jovens usuários de drogas e avaliar o seu efeito. Intitulada “O Jogo da Escolha”, essa técnica pretende, de uma forma lúdica e atrativa, abordar crenças típicas de jovens com problemas com drogas e promover estratégias de enfrentamento para situações e pensamentos que os coloquem em risco para recaída. O processo de desenvolvimento do “O Jogo da Escolha” está descrito no primeiro artigo. Essa fase constituiu-se da elaboração, da adaptação da linguagem e das instruções do jogo. Para tanto, foram realizados grupos focais com pacientes ambulatoriais de um Centro para tratamento de dependência química em Porto Alegre. As sugestões obtidas nesses grupos foram submetidas à avaliação por profissionais especializados em dependência química; também foi realizada a avaliação do conteúdo da técnica e da organização de uma seqüência de apresentação das cartas do jogo. Um estudo piloto do jogo possibilitou modificações finais nas instruções, e no formato de aplicação, chegando à versão atual do “Jogo da Escolha”. A avaliação do efeito dessa versão, que constituiu o segundo artigo, foi realizada através de um quase-experimento. Os sujeitos foram recrutados por anúncio de jornal e rádio, e 110 sujeitos preencheram os critérios de inclusão e exclusão, permanecendo no estudo 32 jovens, com idade média de 19 anos, sendo 91% do sexo masculino e 96,9% apresentava dependência de substâncias e uso freqüente de crack e maconha. Os sujeitos foram submetidos a uma entrevista inicial que avaliou além do uso de drogas, pensamentos a respeito das vantagens e desvantagens de usar drogas, e motivação para cessar o consumo. Após a entrevista, eles participaram de três sessões individuais do “Jogo da Escolha”, com um intervalo de sete dias entre cada aplicação. Na última semana, os sujeitos retornaram para a avaliação final, quando lhes foram reaplicados os instrumentos. Os achados sugeriram que após a intervenção os sujeitos apresentaram um aumento na motivação, movendo-se do estágio de “Ambivalência” para o estágio de “Ação”; 27,6% da amostra moveu-se nessa direção (p=0,01). Eles também diminuíram os dias de uso de crack e de maconha no mês. No caso de crack, passou de, em média, 10 para 6 dias (p= 0,017) e de maconha, em média, 18 para 12 dias (p= 0,01); não houve decréscimo significativo no uso de álcool e de outras drogas. Além disso, a auto-eficácia, aferida através de uma escala de 0 a 10 para a pergunta “o quanto você se sente capaz de parar de usar drogas?”, aumentou significativamente de uma média de 6,8 para 7,6 (p=0,31); A intervenção, todavia, não mostrou efeito na pontuação da Balança Decisional. Os achados indicam que o “Jogo da Escolha” se presta para motivar pacientes que estão ambivalentes em relação a parar de usar drogas, aumentar o seu senso de autoeficácia e efetivamente diminuir o uso droga. Portanto, o jogo terapêutico pode ser ou indicado para ser aplicado no início do tratamento, como um motivador, ou como um pré-tratamento para pacientes que estão em uma lista de espera de atendimento. No entanto, são necessários novos estudos para testar os efeitos específicos da intervenção.
Resumo:
O presente trabalho explora a questão da interdisciplinaridade e da transposição de obras literárias ao cinema a partir de uma perspectiva inovadora, procurando conjugar a teoria com a prática. Focalizando a adaptação da narrativa ficcional breve ao cinema e os modos em que esta ocorre, o estudo propõe em um primeiro momento uma investigação teórica sobre os conceitos da adaptação e a análise de alguns filmes baseados em narrativas literárias breves: Um passeio no campo, de Jean Renoir, baseado no conto homônimo de Maupassant; O criado, baseado na novela de Robin Maugham; e três versões de contos de Edgar Allan Poe, incluindo Toby Dammit, de Federico Fellini, inspirado pelo conto “Não aposte a cabeça com o Diabo”, e duas obras de Jan Svankmajer, A queda da casa de Usher, inspirado no conto de mesmo título, e O poço, o pêndulo e a esperança, baseado em “O poço e o pêndulo”. Posteriormente, realiza-se um estudo da obra contística de Anton Tchekov e a transformação de um de seus contos, “Um drama”, no filme “O roteiro”, seguido de uma análise comparativa do conto original e do filme realizado.