1000 resultados para Nível aplicação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A nanotecnologia, e a sua aplicação na área da biomedicina, em particular na terapêutica e diagnóstico oncológico, tem sido alvo de um desenvolvimento exponencial, com impacto profundo no que respeita a cuidados de saúde. O cancro é uma das doenças que afecta mais pessoas a nível mundial, com elevados índices de mortalidade, níveis de sofrimento físico e emocional e, encargos para o doente, família e sociedade. É uma doença complexa, e a prática clínica convencional constitui um paradigma, na medida em que se revela insuficiente e extremamente agressiva, expondo o doente a medicamentos citotóxicos, não específicos, com elevada toxicidade sistémica e efeitos adversos. A Nanomedicina, e a exploração das propriedades únicas das nanopartículas, apresenta a potencialidade de melhorar a capacidade de detecção e diagnóstico do cancro e, aumentar a especificidade e efectividade no tratamento das células tumorais. No entanto, o recurso a nanotecnologias continua a ser alvo de alguma controvérsia e cepticismo por parte de alguns elementos das comunidades científicas e académica. Com nanoprodutos já aprovados e utilizados em prática clínica e muitos outros em desenvolvimento e investigação em ensaios clínicos, a realização deste trabalho tem como objectivo compreender os conceitos de nanotecnologia e Nanomedicina, perceber o estado da arte, ponderando as vantagens e desvantagens da abordagem “nano” e a sua real aplicação à terapêutica oncológica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O controlo de segurança para preservação da integridade estrutural da barragens é, durante a fase de exploração normal, uma actividade que tem essencialmente como elemento fulcral as inspecções à estrutura e os dados resultantes das observações periódicas da obra, apoiando-se em modelos de comportamento da mesma. Neste sentido, a análise de situações de emergência requer, em regra, a atenção de um especialista em segurança de barragens, o qual poderá, perante os resultados da observação disponíveis e da aplicação de modelos do comportamento da estrutura, identificar o nível de alerta adequado à situação que se está a viver na barragem. Esta abordagem tradicional de controlo de segurança é um processo eficaz mas que apresenta a desvantagem de poder decorrer um período de tempo significativo entre a identificação de um processo anómalo e a definição do respectivo nível de gravidade. O uso de novas tecnologias de apoio à decisão e o planeamento de emergência podem contribuir para minorar os efeitos desta desvantagem. O presente trabalho consiste no desenvolvimento de um modelo de aferição do comportamento de uma barragem através da aplicação de redes neuronais do tipo Perceptrão Multicamadas aos resultados da observação de uma barragem de aterro, por forma a identificar anomalias de comportamento e a quantificar o correspondente nível de alerta. A tese divide-se essencialmente em duas partes. A primeira parte aborda os aspectos que se relacionam com as barragens de aterro, nomeadamente definindo as soluções estruturais mais correntes e identificando os principais tipos de deteriorações que podem surgir nestas estruturas. São, igualmente, abordadas as questões que se relacionam com o controlo de segurança e o planeamento de emergência em barragens de aterro. A segunda parte do trabalho versa sobre o modelo de rede neuronal desenvolvido em linguagem de programação java – o modelo ALBATROZ. Este modelo permite definir o nível de alerta em função do nível de água na albufeira, da pressão registada em quatro piezómetros localizados no corpo e na fundação da barragem e do caudal percolado através da barragem e respectiva fundação. Nesta parte, o trabalho recorre, aos resultados da observação da barragem de Valtorno/Mourão e usa os resultados de um modelo de elementos finitos (desenvolvido no Laboratório Nacional de Engenharia Civil, no âmbito do plano de observação da obra) por forma a simular o comportamento da barragem e fornecer dados para o treino da rede neuronal desenvolvida.O presente trabalho concluiu que o desenvolvimento de redes neuronais que relacionem o valor registado em algumas das grandezas monitorizadas pelo sistema de observação com o nível de alerta associado a uma situação anómala na barragem pode contribuir para a identificação rápida de situações de emergência e permitir agir atempadamente na sua resolução. Esta característica transforma a redes neuronais numa peça importante no planeamento de emergência em barragens e constitui, igualmente, um instrumento de apoio ao controlo de segurança das mesmas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo identifica a relação entre controle percebido e desempenho acadêmico de crianças em situação de risco social e pessoal na cidade de Porto Alegre. Foram examinadas 61 crianças, sendo 30 meninos e 31 meninas com idades de 7 a 8 anos, que freqüentavam a primeira série de duas escolas estaduais da periferia de Porto Alegre. Os dados foram obtidos através da aplicação de uma escala de controle percebido, o CAMI ( Control, agency, Interview), que verifica os componentes de crenças como locus de controle, atribuição de causalidade, auto-eficácia e desamparo aprendido, bem como foram utilizados o Teste de Desempenho Escolar e o desempenho atribuídos a cada criança com base nas provas finais do ano letivo, resultando em aprovado e reprovado. Quarenta e três crianças tiveram como resultado a aprovação e dezoito foram reprovadas. Os resultados deste estudo foram obtidos através de regressão múltipla e logística, médias e análise de variância (ANOVA). Os resultados encontrados neste estudo confirmam que existe relação entre controle percebido e desempenho acadêmico, como também que as crenças de controle, crenças de capacidade e crenças de estratégia variam de acordo com a idade e o gênero.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No presente trabalho, é investigado um método alternativo para remover as impurezas coloridas contidas no caulim ultrafino do Rio Jari (AP), mediante a adsorção seletiva com polímeros aquosolúveis. Apesar desse método (floculação seletiva) ser considerado inovador no tratamento de minérios ultrafinos, problemas como a alta sensibilidade do meio e o baixo rendimento, freqüentemente comprometem a sua aplicação em sistemas naturais. Nesse contexto, o presente trabalho enfatiza questões envolvendo a seletividade do processo, bem como os mecanismos e os fenômenos envolvidos na adsorção seletiva de uma das fases minerais, A caracterização do minério define o tipo de contaminante (anatásio) e as suas relações de contato com a caulinita (ausência de adesão física). Tal informação é útil na avaliação do rendimento ativo do processo. A eficiência na remoção do anatásio, frente ao ambiente específico do meio e em combinação com a intensidade de carga aniônica do polímero floculante, define a condição mais favorável em termos de adsorção e seletividade. Tal condição prevê a utilização de poliacrilamidas fracamente aniônicas em meio alcalino (pH = 10). o aumento da concentração de hexametafosfato-Na (dispersante de atividade eletrostática) provoca uma redução nos níveis de adsorção da caulinita, pelo aumento da sua carga superficial. A seletividade do processo atinge o seu nível máximo com a adição de poliacrilato-Na (dispersante que combina a atividade eletrostática com o efeito estérico). Nessas condições, remoções consideráveis de anatásio são obtidas, fazendo com que o teor de Ti02 contido no caulim caia de 1,3% para 0,2% e com que a recuperação permaneça em níveis satisfatórios (57%). o nível de adição química do meio também condiciona o grau de consistência dos flocos gerados, aumentando a cinética de sedimentação. Nos ambientes considerados altamente seletivos, a sedimentação dos flocos chega a atingir uma velocidade de 18 mm/minuto em polpa com 30% de sólidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, é realizado um estudo dos processos de avaliação de alunos em ambiente WBT (Web Based Training). Para tanto, foram analisadas várias ferramentas de avaliação disponíveis no mercado. Com base nestas análises, foi proposto um sistema de gerência de questões e aplicação de avaliações, onde o termo “gerência” é utilizado com o objetivo de (i) atender requisições dos professores para elaboração de avaliações, (ii) escolher o nível de dificuldade das questões que comporão a avaliação e (iii) usar estratégias interativas para aplicação de provas, como por exemplo, a utilização de níveis de dificuldade progressivos das questões submetidas aos alunos, dependendo de suas respostas anteriores. Integrando o sistema de gerência de questões foi proposto um módulo de auto-avaliações, com retorno imediato para o aluno sobre qual é a resposta correta juntamente com uma explicação do professor, auxiliando no entendimento do estudante sobre a matéria ao invés de simplesmente atribuir determinada nota. Enfim, foi implementado um protótipo demonstrando a viabilidade das idéias presentes no modelo de avaliação aqui proposto. A proposta conceitual estabelecida para o modelo é bem mais ampla e flexível do que a atual versão da implementação realizada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação introduz uma abordagem para a previsão de vendas de empresas no contexto do desenvolvimento de novos produtos. Supõe-se que o método proposto dê sustentação ao processo decisório relativo às primeiras fases do desenvolvimento desses produtos. Também visa alcançar algum nível de compreensão relativamente à influência de fatores externos e internos nos níveis de vendas. Basicamente este método compreende três etapas próprias: análise do ambiente externo e interno à companhia, modelagem do comportamento de demanda (potencial de mercado, vendas da empresa, faturamento do segmento de mercado da empresa) e suas respectivas projeções no tempo. Esta abordagem foi aplicada a uma situação específica de desenvolvimento de um novo produto em uma empresa de médio porte que opera como fabricante de brinquedos. É esperado que empresas de pequeno e médio portes que enfrentem restrições de orçamento possam achar esta abordagem praticável - desde que as informações requeridas possam ser coletadas e mantidas adequadamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este relatório visa o estudo de bandas de câmbio em seus diferentes aspectos. Na primeira parte está apresentada uma versão simplificada, não matemática, da teoria das bandas de câmbio e de suas experiências nos diversos países que a adotaram. A segunda parte contém um estudo mais completo da teoria das bandas de câmbio, inclusive com alguns resultados novos no que diz respeito ao caso de bandas múltiplas. Analisamos neste caso a possibilidade de defesa contra ataques especulativos como função do nível de reservas. A terceira e quarta parte têm como objetivo o estudo preliminar do caso brasileiro. Começamos na terceira parte por um estudo empírico do Risco Brasil, isto é, da diferença entre as taxas de juros interna e externa. Este é um ponto importante quando se tem como objetivo algum tipo de regime cambial mais flexível do que atualmente se tem no Brasil. Finalmente, na última parte, fazemos algumas considerações sobre como um regime de bandas cambiais poderia ser útil durante um programa de estabilização no Brasil. Aqui apresentamos ideias preliminares sobre o assunto que poderiam ser desenvolvidas com mais precisão em uma possível prorrogação do convênio. Outras possibilidades de aplicações da teoria de bandas de câmbio ao Brasil, como um sistema de câmbio multilateral no contexto do MERCOSUL, não são tratadas neste estudo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À medida que o mundo dos negócios tem se tornado cada vez mais competitivo e globalizado, o Marketing de Relacionamento tem sido estudado e desenvolvido como uma forma de garantir às empresas a construção de relações comerciais rentáveis e duradouras. No setor de telefonia celular brasileiro, o mercado já se aproxima da saturação, o que força as operadoras a buscarem novos clientes na base dos concorrentes. Neste contexto, desenvolver um relacionamento mais íntimo e consistente com seus clientes é uma questão de sobrevivência para as empresas. Este trabalho tem o propósito de verificar o atual nível de relacionamento existente entre a Claro Digital, operadora de celular gaúcha, e seus clientes corporativos, através da escala criada por WILSON & VLOSKY (1997). O modelo de WILSON & VLOSKY mensura a intensidade do marketing de relacionamento existente nos processos de troca entre cliente e fornecedor através de 30 questões, divididas em seis dimensões: dependência do fornecedor; nível de comparação com fornecedores alternativos; investimentos no relacionamento; troca de informações; confiança e comprometimento. Em uma etapa exploratória, a Escala WILSON & VLOSKY foi testada e adaptada para o setor de telefonia celular. Na fase descritiva, o questionário da escala foi aplicado em 198 clientes corporativos da Claro Digital através de entrevistas realizadas por telefone. O modelo utilizado nesta pesquisa, criado por WILSON & VLOSKY, apresentou validade de aplicação, demonstrando a existência de marketing de relacionamento na relação da Claro Digital com as empresas que usam o seu serviço celular. Os resultados obtidos nas seis dimensões propostas pelo modelo apresentaram índices acima do ponto médio da escala, que variava de um (1) a cinco (5). Os resultados das seis dimensões da escala também foram cruzados com diferentes caracterizações da amostra (região geográfica, tipo de atendimento, presença de outras operadoras, tempo de base e gasto médio), que determinaram comparativos relevantes para o entendimento global da pesquisa. Utilizando a mesma amostra da pesquisa de relacionamento, foi aplicada uma pesquisa para medir o grau de satisfação dos clientes corporativos. Os resultados da pesquisa de satisfação de clientes pessoa jurídica foram comparados com a Pesquisa Anatel, que mede clientes pessoa-física, revelando índices muito próximos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Accordingly, a variety of firms's technological capabilities studies, the literature recently is still lacking about the dynamic of sector evolution and technological development in inter-firm and their implication for technical and economical financial performance. More lacking is the research catching up the evolution of industrial sectors after the institutional reforms in the 90. For that, the focus of the dissertation is to analyze the main of the evolution of the pulp and paper industry from 1970 to 2004, using as reference points the import-substitution policy and the economic deregulation of the 1990s. Futhermore, the work tries to evaluate how such changes at industry level have been perceived from a firm point of view in terms of accumulation of technological capabilities and improvement of economic financial performance. This linkage is tested and examined in the following firms: Aracruz (Barra do Riacho establishment ), Klabin (Monte Alegre establishment) e Votorantim Celulose e Papel ¿ VCP (Jacareí establishment), defining the same time period of sectoral level. As far as the industry level study is concerned, it is based on the average rate of annual growth of some selected variables, given that the technological capabilities test is performed according to the methodology already existing in the literature, but properly adapted to the pulp and paper case. Similarly, the analysis regarding the improvement of the economic financial performance is based on a set of industry specific indicators. Hence, the work is built upon multiple case studies, taking into account both the qualitative and quantitative evidence, i.e. interviews, direct observations, as well as firm reports. Finally, it is worth emphasizing as the analysis of the changes in the sector, in conjunction with the above mentioned methodology used to measure the technological capabilities in the context of an evolving industrial regime, is still lacking in emerging economies as well as in Brazil. According to the empirical evidence, the reforms of the 1990s had a positive impact on the industrial development, from both the national and international viewpoint. Such a transformation was evident at firm level in terms of accumulation of technological capabilities and improvement of economic financial indicators. Indeed, the results show that the speed of accumulation of technological capabilities within the firms influences positively the performance indicators. On the other hand, these are also related to external factors, such as the macroeconomic conditions, which as such have not been considered in details.