998 resultados para Metodologia de desenvolvimento de sistemas
Resumo:
A Engenharia de Software tornou-se uma das principais áreas de concentração do mundo da Ciência da Computação, pois ela abrange métodos para construir sistemas, ferramentas que fornecem apoio a construção e os procedimentos a seguir para que os métodos estejam de acordo com as ferramentas usadas [PRE 95]. No desenvolvimento de sistemas cada vez mais complexos vê-se a necessidade da utilização de equipes de pessoas no projeto e implementação. Essas pessoas podem estar geograficamente dispersas e portanto possuem a necessidade de troca de informações para que os sistemas desenvolvidos sejam adequados com o objetivo inicial e de qualidade. Assim, os sistemas cooperativos, chamados de groupware, tornaram-se uma importante ferramenta utilizada por esse grupo de profissionais para que as tarefas desenvolvidas em grupo se tornem interativas e eficientes. A interação entre as pessoas que estão trabalhando cooperativamente deve ser a mais produtiva possível, sendo semelhante ao trabalho em grupo em um único local. Assim, a percepção das atividades que estão sendo realizadas devem estar disponíveis para cada profissional, através da Interface Homem-Computador do sistema groupware que estão utilizando. Este trabalho apresenta uma “biblioteca” de Componentes de Percepção que fornecem as informações necessárias para que as pessoas que estão participando da tarefa cooperativa tenham a percepção das atividades que estão sendo realizadas, como também quem e como as estão fazendo. Esses componentes são uma extensão do Ambiente PROSOFT Cooperativo, fornecendo assim uma especificação formal de forma a garantir completeza, corretude e ausência de ambigüidades que são muito difíceis de se conseguir com uma descrição informal.
Resumo:
Para o desenvolvimento de sistemas interativos que respeitem critérios de usabilidade em adição aos critérios de qualidade convencionais, é necessário que, desde suas primeiras etapas, as áreas de Engenharia de Software (ES) e de Interação Humano- Computador (IHC) sejam consideradas, simultaneamente e de maneira integrada. Essas duas áreas investigam modelos, conceitos, técnicas e práticas que refletem diferentes perspectivas sobre a atividade de desenvolvimento, uma orientada mais ao sistema (ES) e outra, mais ao usuário (IHC). Para conciliar estas perspectivas, é necessário o estabelecimento de um entendimento mútuo e a utilização conjunta e integrada de conceitos, técnicas e práticas de desenvolvimento de ambas as áreas. Este trabalho visa mostrar as possibilidades desta integração, através da combinação dos conceitos de Casos de Uso (Use Cases) e Cenários (Scenarios), importantes técnicas de modelagem amplamente utilizadas respectivamente nas áreas de ES e IHC, em diferentes contextos, com diferentes visões; mas apresentando similaridades valiosas para propiciarem o uso complementar de ambas as técnicas. Para sistematizar esta integração, é proposta uma abordagem teleológica – baseada em objetivos – de construção sistemática de casos de uso com quatro diferentes níveis de abstração, desde os mais abstratos casos de uso essenciais até os cenários, aqui utilizados como instâncias concretas de casos de uso. Com esta abordagem, pretende-se construir um modelo de casos de uso que permita especificar requisitos funcionais, conjuntamente com requisitos de interação, de maneira compreensível e praticável e que sirva como ponto de partida à continuidade do desenvolvimento orientado a objetos de software. Com o intuito de exemplificar a proposta, é descrita e discutida a aplicação passo a passo desta abordagem a um exemplo.
Resumo:
A manipulação no período neonatal tem sido utilizada há algumas décadas como modelo experimental para analisar os mecanismos pelos quais variações precoces no ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas estáveis na vida adulta. Nos ratos, a manipulação neonatal consiste do manuseio suave dos filhotes nos primeiros dias de vida em geral, durante as duas semanas após o parto. Quando adultos, os animais submetidos a essa manipulação apresentam uma menor secreção de glicocorticóides pela adrenal quando expostos a estímulos estressores, e um retorno mais rápido à concentração plasmática basal quando comparados aos ratos não manipulados. Trabalhos prévios demonstram que além de alterar o eixo hipotálamo-hipófise-adrenal, a manipulação pode alterar o eixo hipotálamo-hipófise-gônadas, ratas manipuladas apresentam ciclos anovulatórios e uma diminuição do comportamento sexual. Com isso, o nosso objetivo nesse trabalho foi analisar o perfil de secreção de estradiol e progesterona em ratas manipuladas no período neonatal nas quatro fases do ciclo estral, como também, verificar o efeito da manipulação sobre as concentrações plasmáticas de LH e FSH em ratas ovariectomizadas e com reposição hormonal No experimento I foram estudados dois grupos de ratas adultas: não manipuladas (fêmeas que nos 10 primeiros dias de vida não foram tocadas pelo experimentador ou tratador); e manipuladas (ratas que nos 10 primeiros dias pós-parto foram diariamente manipuladas pelo experimentador por 1 minuto, retornando para a mãe logo em seguida). Quando adultas, o ciclo estral das ratas foi controlado, e aquelas com 3 a 4 ciclos regulares seguidos tiveram a veia jugular externa canulada em cada uma das fases do ciclo estral (metaestro, diestro, estro e proestro). No dia seguinte ao da cirurgia às 8 horas da manhã, iniciaram-se as coletas de sangue (800µL) de 3 em 3 horas. O sangue foi centrifugado, o plasma coletado e destinado ao radioimunoensaio para estradiol e progesterona. As ratas cujo sangue foi coletado no proestro tiveram o número de óvulos contados na manhã seguinte. No experimento II, as ratas manipuladas e não manipuladas foram ovariectomizadas e 3 semanas após receberam injeções subcutâneas de estradiol por 3 dias consecutivos às 9 horas da manhã, no quarto dia receberam progesterona às 10 horas e às 11 horas tiveram a veia jugular canulada Neste mesmo dia às 13 horas, iniciaram-se as coletas de sangue (600µL) que foram realizadas de hora em hora, até às 18 horas. O sangue foi centrifugado o plasma coletado e destinado ao radioimunoensaio para LH e FSH. Os resultados mostraram que as ratas manipuladas no período neonatal apresentam uma redução nas concentrações plasmáticas de estradiol no proestro e de progesterona no metaestro e no estro comparadas às não manipuladas. O número de óvulos encontrados na manhã do estro está reduzido nas ratas manipuladas quando comparado às não manipuladas, confirmando resultados prévios. A alteração destes esteróides gonadais pode explicar a redução do número de óvulos das fêmeas manipuladas. As concentrações plasmáticas de LH e de FSH não são diferentes entre os dois grupos, indicando que a responsividade do eixo hipotálamo-hipófise parece não ser alterada pela manipulação, no entanto é necessário realizar mais experimentos para que afirmações possam ser feitas a respeito da responsividade do eixo.
Resumo:
O presente trabalho expõe uma análise sobre duas arquiteturas disponíveis para o desenvolvimento de sistemas que utilizam a tecnologia de workflow. Estas arquiteturas são: a Arquitetura Baseada em Modelagem e Execução em um ùnico Ambiente e a Arquitetura Baseada em Modelagem e Execução e Ambientes Distintos. São expostas: características, vantagens e desvantagens destas arquiteturas. A Aquitetura Baseada em Modelagem e Expressões em Ambientes Distintos é analisada em seu principal ponto negativo: a falta de independência existente entre as apliciações e os processos modelados, bem como são discutidos os problemas que esta falta de independência gera no desenvolvimemto e manutenção das aplicações. Uma alternativa à dependência entre o motor de workflow (engine) e as aplicações é proposta para a Arquitetura Baseada na Modelagem e Execução em Ambientes Distintos. Esta proposta é baseada em um modelo que consiste de uma Camada Intermediária, armazenada em um banco de dados relacional, capaz de extender as funcionalidades do motor de workflow. Este banco de dados armazena toda a estrrutura dos processos modelados, sendo responsável pela função que atualmente é repassada às aplicações: o controle da lógica dos processos. Estes trabalho produziu de uma Camada Intermediária, dividida em Camada de Independência (suportando a independência) e Camada de Integrgação (responsável pela comunicação com o motor de workflow). O estudo apresentada as estruturas do banco de dados, as funções disponibilizadas pela API da Camada Intermediária e um pequeno protótipo para dedmonstrar a arquitetura proposta.
Resumo:
O gerenciamento de riscos constitui atualmente um dos principais fatores relacionados ao baixo índice de sucesso nos projetos de desenvolvimento de software. Neste contexto, dentre outras contribuições relevantes, pode-se considerar o levantamento de ações preventivas que auxiliem os profissionais da área de desenvolvimento de sistemas para a obtenção dos resultados definidos. Mais especificamente, de maneira a cobrir as principais situações problemáticas, é importante considerar ações relacionadas ao comprometimento da gerência sênior e do usuário, à indefinição e alteração de escopo, ao perfil e volatilidade da equipe, e ao orçamento e cronograma do projeto. A partir da utilização de questionários e da realização de entrevistas com profissionais da área, identificaram-se, para cada situação problemática de risco, as ações adotadas por empresas da área de tecnologia da informação e empresas de outras áreas de negócio, como telecomunicação, indústria de computadores, educação e financeira. Foi também analisado o modo de posicionamento das empresas (preventivo ou corretivo) nas situações de risco, acompanhado de uma apreciação relacionada tanto ao ambiente das empresas como às categorias de conceitos desenvolvidos pela literatura especializada. Espera-se, com os resultados deste trabalho, auxiliar as empresas que lidam com projetos de desenvolvimento de software na estruturação de seus processos de gerenciamento de risco.
Resumo:
As Brazil wants to be perceived as a competitor in providing computer applications and system development services in the global market, the concept of Software Factory gains importance. The metaphor for the 'Factory', when applied to the activity of software development, is used to describe organizations which produce software with a minimum quality standard and at competitive costs. However, the term 'Factory' recalls Fordist concepts, which have been challenged for a few decades in the manufacturing industry. This study analyzed university curricula and how students and teachers perceive the concept of Software Factory and assessed them in relation to the Fordism ------------ post-Fordism /continuum/. It was observed that some of the teachers who have influence over curricula define Software Factories according to Fordist concepts. It was also observed that, despite opportunities for improvements, curricula are adequately structured with regards to the skills a professional at these organizations must possess. We conclude that education provided at the programs being analyzed is adequate, but that it must be supplemented by companies or by the professionals themselves so that the knowledge acquired in the programs may be put in practice.
Resumo:
O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.
Resumo:
Trata da questão da importação de metodologias administrativas no Brasil, abordando-a como um fenômeno social composto de mito. Tais metodologias foram consideradas como mitos no ambiente organizacional brasileiro. Opera una desmistificação das metodologias baseando-se no método semiológico de Roland Barthes; assim desmitifica os conceitos de universalidade, cientificidade, racionalidade, neutralidade e modernidade, revelando os elementos do sentido (significado essencial) que são a racionalidade instrumental, a ideologia gerencial e o paradigma funcionalista
Resumo:
Os produtos de sensoriamento remoto gerados pelos novos sensores orbitais, aliados ao desenvolvimento de sistemas computacionais e de técnicas de processamento de imagens possibilitam a manipulação numérica das imagens, visando o realce de informações de interesse para a interpretação visual ou automática. O uso dessas técnicas traz boas perspectivas no mapeamento geológico básico, pois possibilita uma visão sinóptica de amplas áreas e a integração de dados litológicos e estruturais de várias fontes. Este trabalho selecionou as imagens do sensor ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer) devido as características de suas resoluções espectral e espacial, como as mais promissoras para identificação dos diferentes litotipos da área do Platô da Ramada, em especial as unidades vulcânicas e hipabissais relacionadas e sedimentares subjacentes. O Platô da Ramada, região de Vila Nova do Sul (RS) constitui uma feição geomorfológica de destaque na área, facilmente identificável nas imagens orbitais, sendo formado por uma seqüência vulcânica caracterizada por depósitos efusivos e piroclásticos, de composição dominantemente ácida. Representa uma fração significativa do magmatismo alcalino sódico neoproterozóico no Escudo Sul-rio-grandense e marca um dos ciclos vulcânicos do período pós-colisional do Ciclo Brasiliano Este estudo testou e avaliou diversos processamentos das imagens multiespectrais para diferenciação litológica, a identificação de alvos e a definição de morfoestruturas da área do Platô da Ramada. A integração de dados geológicos existentes com os produtos obtidos neste estudo possibilitou novas informações anexadas ao mapa geológico utilizado como verdade terrestre. O processamento utilizando a técnica de Transformação por Componentes Principais Seletivas proporcionou os melhores resultados realçando diferenças espectrais existentes entre as rochas vulcânicas e hipabissais e as rochas sedimentares. A partir dessa técnica, selecionou-se as imagens CP2 dos pares das bandas 4-5 (R), 3-4 (G) e 8-9 (B) na geração de uma composição colorida. Esta imagem permitiu a diferenciação espectral entre as rochas vulcânicas do Platô da Ramada e as rochas sedimentares do Grupo Maricá, bem como a individualização, no Grupo Maricá, de duas subunidades, levando-se em conta a densidade de intrusões de diques riolíticos ao norte da área. Identificou-se, ainda, um corpo diorítico com forma elíptica na borda SW do Platô da Ramada, não registrado anteriormente.
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
A preocupação ambiental vem aumentando significativamente nos últimos anos. As legislações ambientais estão mais rigorosas e as pessoas estão exigindo produtos e processos com menor impacto ambiental. Neste contexto, surge a necessidade de avaliar os impactos ambientais na escolha entre processos industriais. Esta dissertação tem como finalidade propor um método para a escolha entre processos industriais, incluindo como critério a avaliação dos impactos ambientais. O método proposto foi aplicado em uma indústria do setor siderúrgico, para os processos de decapagem química e mecânica. Para isso, foram utilizados como bases teóricas o meio ambiente e o desenvolvimento sustentável, sistemas de gestão ambiental, impactos ambientais e o setor siderúrgico. Com a aplicação da ACV (Avaliação do Ciclo de Vida) do produto, constatou-se que o processo de decapagem química causa maiores danos ao meio ambiente quando comparado ao processo de decapagem mecânica. Para complementar este estudo, realizou-se uma análise multicriterial, utilizando-se o AHP (Processo Hierárquico Analítico) e considerando-se os critérios: problemas ambientais, custo, produtividade e qualidade final. Após a realização desta análise, verificou-se que o processo de decapagem que melhor atende ao conjunto de critérios pré-definidos é o processo de decapagem mecânica, com 73,96%.
Resumo:
Nowadays, the popularity of the Web encourages the development of Hypermedia Systems dedicated to e-learning. Nevertheless, most of the available Web teaching systems apply the traditional paper-based learning resources presented as HTML pages making no use of the new capabilities provided by the Web. There is a challenge to develop educative systems that adapt the educative content to the style of learning, context and background of each student. Another research issue is the capacity to interoperate on the Web reusing learning objects. This work presents an approach to address these two issues by using the technologies of the Semantic Web. The approach presented here models the knowledge of the educative content and the learner’s profile with ontologies whose vocabularies are a refinement of those defined on standards situated on the Web as reference points to provide semantics. Ontologies enable the representation of metadata concerning simple learning objects and the rules that define the way that they can feasibly be assembled to configure more complex ones. These complex learning objects could be created dynamically according to the learners’ profile by intelligent agents that use the ontologies as the source of their beliefs. Interoperability issues were addressed by using an application profile of the IEEE LOM- Learning Object Metadata standard.
Resumo:
Esta dissertação examina as implicações do processo de acumulação de competências tecnológicas para a melhoria da performance técnico-econômica. Este relacionamento foi examinado na Telemar Norte Leste, empresa prestadora de serviços de telefonia fixa, durante o período de 1998 a 2002. O exame da acumulação de competências é feito tendo como base uma estrutura descritiva existente na literatura e adaptada especificamente para o setor de telefonia fixa. A aplicação de estruturas descritivas para examinar as implicações da acumulação de competências tecnológicas sobre o aprimoramento da performance técnico-econômica, em empresas do setor de telecomunicações no Brasil, ainda é escassa. Esta dissertação realiza essa análise, baseada num estudo de caso individual e fundamenta-se em evidências empíricas qualitativas e quantitativas, obtidas através de entrevistas, observação direta e documentação interna. A acumulação de competências tecnológicas foi estudada em duas funções: "desenvolvimento de processos comerciais, produtos e serviços" e "desenvolvimento de sistemas de telecomunicações e processos operacionais". O exame do aprimoramento de performance está baseado num conjunto de indicadores técnico-econômicos, típicos desse setor. A análise realizada na Telemar identificou que esta desenvolveu esforços que lhe possibilitaram acumular competências inovadoras nestas funções, considerando a estrutura analítica adaptada nesta dissertação, alcançando o Nível 5 ou Intermediário, numa escala de sete níveis. Foram ainda encontradas evidências de influencias positivas para o aprimoramento da performance de vinte e nove indicadores de desempenho analisados, representativos das funções analisadas. Alinhando-se a outros estudos recentes na literatura de empresas localizadas em países em desenvolvimento, as evidências encontradas nesta dissertação sugerem que a acumulação de competências para adaptar, modificar ou criar novas tecnologias é essencial para a sobrevivência e o desempenho competitivo das firmas, exercendo papel fundamental no aprimoramento de seus indicadores de performance. Outros fatores, internos e externos, podem também influenciar a evolução das empresas. Esta dissertação comenta somente a crise mundial do setor de telecomunicações. Provocada pela drástica reversão dos investimentos vinculados à nova economia, desde 2001 tem provocado uma revisão no processo de gestão dos prestadores de serviços de telecomunicações, afetando o desempenho organizacional. Este contexto, no entanto, dada a complexidade de suas implicações, não foram aqui examinados.
Resumo:
O esgotamento das reservas de energia fóssil e o processo de mudanças climáticas causadas pelas emissões de GEEs posicionaram os biocombustíveis como a principal fonte alternativa de energia renovável disponível para uso em transportes no curto e médio prazos. Contudo, a presença de externalidades e assimetrias de informação dificultam a verificação da sustentabilidade neste setor. Assim, a emergência do mercado internacional de biocombustíveis mostra-se condicionada pela construção de instituições que garantam a sustentabilidade da produção e consumo desses produtos. O processo de construção das instituições de governança socioambiental é afetado por fatores de ordem técnica, política e institucional. Apoiado em aportes teóricos do institucionalismo econômico e sociológico, o presente estudo buscou analisar que elementos afetam este processo considerando a trajetória de mercados já estabelecidos que apresentam caraterísticas análogas ao setor de biocombustíveis (alimentos orgânicos e produtos florestais). A forma como legislações nacionais, acordos internacionais e sistemas de certificação privada se desenvolveram e interagiram nesses setores apresenta aderência com o processo de construção do mercado de biocombustíveis observado até o momento. Dentre os resultados encontrados, observa-se tendência à convergência entre padrões de sustentabilidade em diferentes legislações nacionais e sistemas de certificação privados devido às externalidades de rede que conferem maior valor a padrões adotados por uma gama mais ampla de usuários. A União Europeia desponta como o principal formador de padrões de sustentabilidade, dado seu perfil importador e o estabelecimento de critérios mais amplos nas legislações dos Estados Membros, geralmente implementada via integração de mecanismos de governança públicos e privados (meta-standards). Apesar do expressivo potencial de consumo, os EUA apresentam menor influência nesse processo devido a considerável capacidade de produção doméstica e a priorização de elementos estratégicos (segurança energética e desenvolvimento rural) no desenho de suas políticas de sustentabilidade para combustíveis de biomassa. Na esfera privada, o desenvolvimento de sistemas de certificação apresenta-se condicionado por elementos técnicos, como a eficiência em cobrir critérios relevantes e os custos incorridos neste processo; e políticos, relacionados à capacidade de legitimição dos atores envolvidos em cada um destes programas de certificação. Também se observa que caraterísticas tecnológicas e organizacionais das cadeias de produção de biocombustíveis afetam a expansão de sistemas de certificação, condicionando tanto os custos para o estabelecimento da cadeia de custódia como a capacidade de coordenação de ações setoriais visando a adoção de práticas sustentáveis que facilitem a obtenção da certificação. Essa relação fica evidente em novas nações que buscam estabelecer um setor bioenergético e enfrentam dificuldades em integrar a agricultura familiar à modelos de produção que respeitem critérios socioambientais vigentes no mercado internacional. A pesquisa revelou a necessidade de um entendimento mais aprofundado da interconexão de novas rotas tecnológicas e atores adentrando no mercado internacional de biocombustíveis. A compreensão dos riscos e potencialidades de novas formas de interação pública e privada na governança socioambiental apresenta-se como um campo prolífico para futuros estudos neste setor e em outros em que atributos ambientais se mostrem relevantes.