995 resultados para desenvolvidos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A literatura tem mostrado, por intermédio de estudos com animais e seres humanos, que o uso reduzido da musculatura (como por exemplo, a imobilização de um segmento) produz uma série de alterações estruturais e funcionais no músculo esquelético. As principais alterações observadas no músculo após a redução do uso estão relacionadas com alterações nas propriedades bioquímicas, na composição de fibras musculares, atrofia muscular, redução na capacidade de produção de força, e redução na capacidade de ativação. Apesar de a maior parte dos estudos sobre o assunto ter sido realizada em modelos animais (os quais possibilitam o estudo invasivo dos mecanismos de adaptação), a incidência de lesões articulares em seres humanos tem motivado os pesquisadores a buscar métodos alternativos e nãoinvasivos para o diagnóstico e acompanhamento das lesões articulares. Tendo em vista que a mecanomiografia (MMG) é uma técnica não-invasiva que permite o estudo do comportamento mecânico e fisiológico do músculo, acredita-se que esta técnica, associada com a avaliação da capacidade de produção de força e com a eletromiografia (EMG), possa ser um método útil no diagnóstico das alterações produzidas por essas lesões e no acompanhamento de programas de reabilitação. O objetivo desse estudo foi avaliar as adaptações musculares após um período de imobilização de duas semanas. Três estudos foram desenvolvidos, sendo os dois primeiros com seres humanos e o terceiro em um modelo animal. O primeiro estudo avaliou as respostas eletromiográficas, mecanomiográficas e de torque dos músculos flexores plantares e dos flexores dorsais do tornozelo durante esforço voluntário. Foram avaliados 23 indivíduos que tiveram seus tornozelos imobilizados em função de um entorse de grau II, e 32 indivíduos saudáveis, que fizeram parte do grupo controle. O segundo estudo, por sua vez, investigou as alterações no comportamento mecânico dos mesmos grupos musculares do estudo 1, ao longo de um protocolo de contrações produzidas via estimulação elétrica, utilizando-se várias freqüências de estimulação (de 5 a 60 Hz). Nos dois estudos, os valores de torque dos flexores plantares e dos flexores dorsais no grupo imobilizado foram significativamente inferiores aos do grupo controle. Essa redução foi mais evidente nos flexores plantares do que nos flexores dorsais. Os valores root mean square (RMS) do sinal EMG, durante a CVM (estudo 1), foram significativamente menores nos músculos gastrocnêmio medial (GM), sóleo (SOL) e tibial anterior (TA) do grupo que foi imobilizado quando comparado ao grupo controle. A mediana da freqüência (MDF) do sinal EMG, durante a CVM, no estudo 1, não apresentou diferença significativa entre os dois grupos da amostra, em nenhum dos três músculos estudados (GM, SOL e TA). Os valores RMS e a MDF do sinal MMG dos músculos GM, SOL e TA não apresentaram diferenças significativas entre os dois grupos da amostra, em nenhum dos dois estudos, indicando que a técnica da MMG não foi capaz de revelar as alterações musculares produzidas por um período de imobilização. O terceiro estudo avaliou as alterações das propriedades mecânicas devido a alterações no comprimento muscular e na freqüência de estimulação nos músculos SOL de 3 gatos. As relações força-comprimento foram estabelecidas ao nível articular, muscular, das fibras musculares e dos sarcômeros. Os resultados demonstraram que as variações de comprimento da fibra diferem das variações de comprimento do músculo como um todo, principalmente nos comprimentos mais encurtados. Existe um maior encurtamento da fibra com o aumento da freqüência de estimulação nos menores comprimentos musculares, enquanto nos maiores comprimentos musculares o aumento da freqüência de estimulação tem um efeito similar sobre as fibras e o músculo como um todo. Os principais achados do presente estudo são de que as respostas da EMG e de torque são alteradas por um período de 2 semanas de imobilização, enquanto as respostas da MMG não, e que o comprimento muscular é uma importante variável que deve ser controlada a nível tanto das fibras musculares, quanto dos componentes elásticos no estudo das propriedades mecânicas do músculo esquelético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As particularidades encontradas na modelagem de bancos de dados geográficos tornam necessário o desenvolvimento de modelos específicos. A totalidade dos modelos desenvolvidos oferece recursos para a modelagem de aspectos estáticos. Alguns dos modelos apresentam soluções parciais para a modelagem de aspectos dinâmicos. A possibilidade de executar processos de análise geográfica, que alteram o estado dos componentes do banco de dados geográficos é, de forma geral, a maior motivação para justificar os investimentos necessários para a sua construção. A formalização desses processos em um modelo conceitual, na fase de projeto, torna desnecessário o uso da terminologia específica que cada software de SIG emprega. A solução desenvolvida estende um framework conceitual (GeoFrame) com uma semântica que suporta a expressão de processos de análise geográfica, mantendo compatibilidade com a linguagem UML. Para utilizar de forma adequada os recursos do framework, uma metodologia para a elaboração do modelo do usuário é indicada. Nessa metodologia, os processos são identificados a partir da elaboração de diagramas de casos de uso e atividades, incorporados no diagrama de classes e detalhados através de diagramas de atividades contendo ações. Um levantamento sobre operações utilizadas em processos de análise geográfica abrangendo a visão conceitual, lógica e de implementação de vários autores levou à construção de um catálogo de operações geográficas. Essas operações foram modeladas utilizando os elementos de modelagem de comportamento da especificação da UML, versão 2.0. O conjunto de recursos oferecidos nesse trabalho proporciona ao projetista de bancos de dados geográficos o desenvolvimento de uma especificação em alto nível e abrangente, utilizando a linguagem UML, reconhecida como padrão em modelagem de sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabalho Identifica Desenvolvimento Econômico como o Processo de Acumulação Sistemática de Capital e Incorporação do Progresso Técnico que Leva ao Aumento da Renda Per Capita e dos Padrões de Vida. não Há Razão para Distinguir Desenvolvimento Econômico de Crescimento Econômico, uma Vez que o Autor Usa o Método Histórico, não o Método Normativo ou Hipotético-Dedutivo. Historicamente, o Crescimento da Renda Per Capita Acontece Concomitantemente com Transformações Estruturais na Economia e na Sociedade, E, Apesar de por Algum Tempo Levar À Concentração de Renda e Negligência com o Meio-Ambiente, Geralmente Eleva os Padrões de Vida. os Modelos Neoclássicos de Crescimento Econômico Baseados em Funções de Produção são de Pouca Utilidade para Entender o Crescimento Econômico. é Importante, Entretanto, Ver que no Médio Prazo, nos Países que Primeiro se Desenvolveram, o Aumento da Produtividade ou do Valor Agregado Per Capita é Proporcional ao Aumento dos Salários. os Salários Cada Vez Mais Altos São, de um Lado, Consistentes com uma Taxa de Lucro Satisfatória, E, de Outro, uma Conseqüência da Crescente Incorporação de Capital Humano Pelos Trabalhadores, Derivada do Investimento em Educação. Mais Recentemente, nos Países Desenvolvidos, a Globalização e o Progresso Técnico Poupador de Trabalho Estão Pressionando os Salários para Baixo. Diferentemente, nos Países em Desenvolvimento, os Salários Tendem Estruturalmente a Aumentar Menos que a Produtividade em Virtude do Caráter Dual de suas Sociedades e a Conseqüente Oferta Ilimitada de Mão-De-Obra. Tanto nos Países Desenvolvidos como nos em Desenvolvimento, Sempre, Mas Especialmente Quando os Salários Estão Aumentando Abaixo da Produtividade, Torna-Se Necessário um Gerenciamento Cuidadoso da Política Macroeconômica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem por objetivo contribuir para a análise do método de trabalho em economia que Bresser-Pereira propõe. Ressalta a partir da leitura de seus trabalhos sobre metodologia duas das principais características de seu método de pesquisa: a noção de razoabilidade científica e a importância da abordagem histórica. Ademais, procura destacar o veio filosófico do pragmatismo que parece bastante pertinente para a análise do pensamento neo-estruturalista do autor, especialmente no que diz respeito à perspectiva de resolução de problemas encontrada em seus trabalhos. Para ficar aqui em dois registros: a teoria da inflação inercial e a interpretação da crise do Estado brasileiro. Ao perceber problemas novos e específicos da realidade brasileira, Bresser Pereira procurou teorizar de modo a propor soluções criativas para questões distintas das encontradas nos países desenvolvidos e, portanto, já amplamente tratadas pela teoria econômica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Como as crianças constroem espaços-tempos para suas atividades lúdicas tanto nos pátios das casas quanto nas ruas? Como agem diante das limitações espaciais, temporais, das proibições dos adultos, que os impedem de estar e jogar coletivamente tanto nos pátios das casas quanto nas ruas?” Movida por estes problemas, observo os protagonistas – crianças, filhos e filhas de famílias que habitam a Nova Santa Marta, área invadida pelos “sem-teto”, localizada na periferia da cidade de Santa Maria, região central do Rio Grande do Sul – em seus próprios ambientes, os pátios das casas e as ruas. Participando entre eles como um dos sujeitos, desencadeio com a minha presença e a das crianças – que levava comigo nos encontros – interações entre elas. Através das fotografias e das conversas informais, coleto a maior parte dos dados empíricos dessa pesquisa. Com o foco nas relações entre as crianças e seus pais – 15 crianças e 8 famílias – e nas interações e atividades lúdicas das crianças, tento compreendê-los a partir de seus sentimentos, comportamentos e vivências. Situo as relações entre crianças e adultos no contexto paradoxal e ambíguo dos discursos e práticas dos adultos, da sociedade, em relação às crianças, que – tratadas discursivamente como “assunto prioritário” – ainda sucumbem à fome na sociedade brasileira. À luz dos estudos desenvolvidos, na década de noventa, pelos sociólogos que investigam a infância – entendo as crianças como sujeitos protagonistas, mesclando uma análise micro – a criança, a infância – com a análise macro – o contexto histórico, demográfico, social e econômico. Ao discutir os espaços-tempos das crianças, explicito o fenômeno do confinamento no ambiente familiar, o qual estão vivenciando, na atualidade, tal qual a maioria dos adultos que, desempregados, permanecem neste espaço durante a maior parte do tempo. Além disso, aponto a privação de experiências diversificadas que pode vir a limitar os potenciais, as capacidades das crianças nesse período tão crucial de suas vidas. Submetidas a atividades passivas, sem interações afetivas, tendem a não se desenvolver, plenamente. A partir de um estudo sociológico realizado por Ennew (1994), trato da problemática do tempo – sem dissociá-lo do espaço – da criança e do adulto, procurando entender o espaço-tempo do jogo infantil criativo e independente, que, de modo crescente, vem diminuindo em detrimento do espaço-tempo do adulto. Questiono – em consonância com os estudos sociológicos e outros referenciais – a psicologia e a educação – se há alguma evidência de que a criança resista ao controle, aos cerceamentos dos adultos, apropriando-se dos espaços-tempos. Analiso as relações entre as crianças e os adultos, seus pais, que, cotidianamente, vêm ora impedindo, ora permitindo que elas – usufruam dos direitos de viverem a infância e o dia de hoje – tomem para si seus espaços-tempos Discuto as interações entre as crianças que se apropriam dos espaços-tempos - nos quais se expressam lúdica e criativamente como protagonistas - apesar dos constantes e crescentes cerceamentos dos adultos, que supervisionam, durante a maior parte do tempo, suas atividades. Por fim, aponto algumas questões que emergem desse estudo, propondo que se pense – e formule ações – no sentido da criação de ambientes lúdicos de expressão criativa nos quais as crianças possam jogar juntas e também conviver com pessoas de diferentes gerações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é devotado à avaliação do risco de tráfego em concessões de infra-estruturas rodoviárias. Apresenta as principais causas de discrepâncias entre previsões e a realidade do tráfego em concessões de infra-estruturas rodoviárias, abordando as conseqüências dessas diferenças e os meios propostos e/ou utilizados para a reduzir os riscos proporcionados aos concessionários pelas incertezas inerentes ao tráfego. Dentre os principais meios encontrados para minimizar os efeitos do risco de tráfego aos concessionários encontra-se a utilização de mecanismos de concessão baseado em contratos com prazo variável. Dois mecanismos têm sido desenvolvidos com este objetivo e foram avaliados neste trabalho: LPVR, proposto por Engel, Fischer e Galetovic e implantado no Chile em meados da década de 1990; e LPVNR, proposto por Nombela e De Rus a partir do final da mesma década. A avaliação dos mecanismos foi realizada com um método quantitativo de análise de riscos, utilizando simulação Monte Carlo. Para a realização da avaliação, foi desenvolvido um modelo financeiro que propiciasse análises de projetos com duração não definida ex-ante. 81 simulações foram realizadas, sendo 27 para cada um dos três tipos de concessão de rodovias testados: BOT, ROT e concessões para a operação e manutenção (O&M). As variáveis utilizadas nos testes foram: as taxas de desconto utilizadas nos projetos; os horizontes de tempo das concessões (duração esperada); e a extensão máxima que a duração pode ter, além da duração esperada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudo ao Ministério da Cultura sobre práticas legislativas estrangeiras relacionadas a direitos autorais, realizado pelos professores Pedro Paranaguá e Sérgio Branco, da Escola de Direito da Fundação Getúlio Vargas do Rio de Janeiro. Além de Berna e de TRIPs, o estudo faz uma análise comparativa de algumas leis estrangeiras. Foram escolhidos cinco países, dos quais quatro com leis em vigor e um com um projeto de lei apresentado em seu Congresso. Dois países em desenvolvimento: Chile e Filipinas, e três desenvolvidos: Austrália, Canadá e Noruega.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last years, credit market has shown strong growth since interest rates and bank spreads have followed a declined route. This dissertation analyzes the impact of the monetary policy on the bank margins and interest rates of some type of credit operations and tests the relation between interest rates, loans and GDP. The cointegration test results can not reject the hypothesis that Selic rate could be affecting the bank margins and interest rates and also that there is a long term relation between interest rates, loans and GDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo do Balanced Scorecard para a empresa familiar foi elaborado baseado em relações de causa e efeito, em objetivos específicos dentro do mapa estratégico, composto por indicadores de controle dos caminhos a serem desenvolvidos por sucessores e pela empresa familiar como um todo. Desenvolveu-se um estudo teórico, ou seja, uma construção a partir do conhecimento já existente, com o objetivo de aprofundar a visão no assunto. As empresas familiares representam cerca de 96% do número de empresas no Brasil e geram cerca de 67 % do número de empregos no país. As fases de desenvolvimento do indivíduo, do sucessor, da empresa, da propriedade e da família foram relacionadas ao Balanced Scorecard, através de objetivos estratégicos a partir das perspectivas de aprendizagem e crescimento, de processos internos, do cliente e também da perspectiva financeira e estratégica, gerando mais de 60 indicadores de resultado ou de tendência, que irão unir aspectos operacionais ao planejamento estratégico familiar e empresarial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento de riscos constitui atualmente um dos principais fatores relacionados ao baixo índice de sucesso nos projetos de desenvolvimento de software. Neste contexto, dentre outras contribuições relevantes, pode-se considerar o levantamento de ações preventivas que auxiliem os profissionais da área de desenvolvimento de sistemas para a obtenção dos resultados definidos. Mais especificamente, de maneira a cobrir as principais situações problemáticas, é importante considerar ações relacionadas ao comprometimento da gerência sênior e do usuário, à indefinição e alteração de escopo, ao perfil e volatilidade da equipe, e ao orçamento e cronograma do projeto. A partir da utilização de questionários e da realização de entrevistas com profissionais da área, identificaram-se, para cada situação problemática de risco, as ações adotadas por empresas da área de tecnologia da informação e empresas de outras áreas de negócio, como telecomunicação, indústria de computadores, educação e financeira. Foi também analisado o modo de posicionamento das empresas (preventivo ou corretivo) nas situações de risco, acompanhado de uma apreciação relacionada tanto ao ambiente das empresas como às categorias de conceitos desenvolvidos pela literatura especializada. Espera-se, com os resultados deste trabalho, auxiliar as empresas que lidam com projetos de desenvolvimento de software na estruturação de seus processos de gerenciamento de risco.