960 resultados para Modelo de Circuito de Multi-Porta


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesqUisa objetiva desenvolver, testar e demonstrar a aplicabilidade de um modelo infonnacional que possibilite a gestão integrada das operações da cadeia de suprimentos para indústrias geograficamente dispersas, também denominadas indústrias multi planta. Para tanto, serão aplicadas metodologias de estudo de caso e pesquisa-ação, em uma empresa representativa dos setores mineral e metalúrgico, o Departamento de Manganês e Ferro-Ligas da CVRD - Cia. Vale do Rio Doce. A pesquisa pretende demonstrar que o modelo de sistema infonnacional proposto, por meio da automatização dos processos transacionais e gerenciais, é capaz de prover recursos de planejamento e controle nos níveis operacional, tático e estratégico, devido a sua capacidade de incrementar a velocidade e a qualidade dos processos de análise e decisão. A pesquisa pretende conduzir, após análise dos resultados e avaliação das contribuições à empresa estudada, a um modelo informacional adequado para gerir as operações de outras empresas de mineração e metalurgia com características semelhantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em sistemas produtivos onde a diversificação da produção é vista como estratégia competitiva, a customização torna-se uma ferramenta importante, pois possibilita a produção de itens diferenciados a custos similares aos de produtos padronizados. No entanto, sua implementação requer certa flexibilidade no processo produtivo, sendo esta adquirida através da adoção de linhas de montagem capazes de alternar diferentes modelos de um mesmo produto, denominadas como linhas de montagem multi-modelos. Neste tipo de sistema produtivo, a distribuição das tarefas de montagem entre as estações de trabalho tende a ser mais complexa, devido às características de cada modelo produzido pela linha. Dessa forma, o estudo do problema de balanceamento de linhas de montagem multi-modelos é necessário ao desejar-se obter uma melhor distribuição da carga de trabalho entre as estações e, conseqüentemente, um aumento de produtividade. Esta dissertação propõe uma sistemática para realização de balanceamento em linha de montagem multi-modelos. Para tanto, são classificados quanto às suas características e aplicabilidade procedimentos de balanceamento de linhas multi-modelos desenvolvidos por diversos autores. Um desses procedimentos, inserido na sistemática proposta, tem sua aplicação ilustrada através de um estudo de caso em uma indústria de manufatura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho pretende avaliar se é possível elaborar estratégias pedagógicas com base em modelos de níveis de tomada de consciência e utilizá-las, por meio de agentes inteligentes, em um ambiente de aprendizagem. O ambiente utilizado foi o AMPLIA - Ambiente Multi-agente Probabilístico Inteligente de Aprendizagem, desenvolvido inicialmente como um recurso auxiliar para a educação médica: neste ambiente, o aluno constrói uma representação gráfica de sua hipótese diagnóstica, por meio de uma rede bayesiana. O AMPLIA é formado por três agentes inteligentes, o primeiro é o Agente de Domínio, responsável pela avaliação da rede bayesiana do aluno. Os projetos dos outros dois agentes inteligentes do AMPLIA são apresentados nesta tese: o Agente Aprendiz, que faz inferências probabilísticas sobre as ações do aluno, a fim de construir um modelo do aluno baseado em seu nível de tomada de consciência, e o Agente Mediador, que utiliza um Diagrama de influência, para selecionar a estratégia pedagógica com maior probabilidade de utilidade. Por meio de uma revisão dos estudos de Piaget sobre a equilibração das estruturas cognitivas e sobre a tomada de consciência, foi construída a base teórica para a definição e organização das estratégias. Essas foram organizadas em classes, de acordo com o principal problema detectado na rede do aluno e com a confiança declarada pelo aluno, e em táticas, de acordo com o nível de autonomia, inferido pelo Agente Aprendiz. Foram realizados experimentos práticos acompanhados por instrumentos de avaliação e por observações virtuais on line, com o objetivo de detectar variações nos estados de confiança, de autonomia e de competência. Também foram pesquisados indícios de estados de desequilibração e de condutas de regulação e equilibração durante os ciclos de interação do aluno com o AMPLIA. Os resultados obtidos permitiram concluir que há evidências de que, ao longo do processo, há ciclos em que o aluno realiza ações sem uma tomada de consciência. Estes estados são identificados, probabilisticamente, pelo agente inteligente, que então seleciona uma estratégia mais voltada para um feedback negativo, isto é, uma correção. Quando o agente infere uma mudança neste estado, seleciona outra estratégia, com um feedback positivo e com maior utilidade para dar início a um processo de negociação pedagógica, isto é, uma tentativa de maximizar a confiança do aluno em si mesmo e no AMPLIA, assim como maximizar a confiança do AMPLIA no aluno. Os trabalhos futuros apontam para a ampliação do modelo do aluno, por meio da incorporação de um maior número de variáveis, e para a necessidade de aprofundamento dos estudos sobre a declaração de confiança, do ponto de vista psicológico. As principais contribuições relatadas são na definição e construção de um modelo de aluno, com utilização de redes bayesianas, no projeto de um agente pedagógico como mediador num processo de negociação pedagógica, e na definição e seleção de estratégias pedagógicas para o AMPLIA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As primeiras regiões metropolitanas brasileiras foram instituídas de maneira vertical e autoritária como parte da estratégia de desenvolvimento nacional promovida pelo governo militar. Percebidas como instituições não-democráticas e rejeitadas como possível quarto ente federativo, as regiões metropolitanas, desde a Constituição de 1988, foram gradualmente esvaziadas dos seus propósitos originais. Em sua orfandade, os problemas socioeconômicos proliferaram e foram acentuados, e passaram a predominar relações intergovernamentais competitivas em vez de cooperativas. Um dos principais desafios enfrentados pelo modelo federalista brasileiro, em especial quando se trata destas regiões, está relacionado à necessidade de estabelecer maior cooperação e coordenação, tidas como imprescindíveis para garantir um relacionamento mais equilibrado entre os entes federativos, assim como para a efetiva implementação de políticas de enfrentamento das desigualdades e exclusão social nas aglomerações urbanas. Este trabalho analisa o Grande Recife Consórcio Metropolitano de Transportes (CMT), empresa pública multifederativa estabelecida em 2008 entre os governos municipais e estadual da Região Metropolitana de Recife (RMR). Responsável pelo planejamento, gestão e implementação compartilhada da política de transporte público coletivo na RMR, o Grande Recife se tornou realidade com a aprovação e regulamentação da Lei Federal nº 11.107 de 2005, conhecida como a Lei de Consórcios Públicos. O Grande Recife é uma experiência pioneira e inovadora, demonstrando que é possível encontrar uma maneira de superar conflitos e desafios comuns e, ao mesmo tempo, garantir a preservação da autonomia de cada ente, bem como os direitos cidadãos. Neste trabalho consideramos essa experiência de cooperação intergovernamental como um exemplo de multi-level governance (MLG), uma vez que é ilustrativa de um novo arranjo institucional democrático entre distintas esferas governamentais para a gestão compartilhada de um serviço público.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Customização em massa é um conceito emergente na indústria orientada a fornecer produtos e serviços customizados através de processos flexíveis, em grandes volumes e a custos razoavelmente baixos. A customização de produtos é uma estratégia chave para conseguir a satisfação do cliente com produtos exclusivos e preços razoáveis. Este trabalho de tese propõe um modelo de customização de produtos para facilitar o projeto e colaboração do cliente no processo de selecionar a configuração de um produto. O modelo integra as técnicas de modelagem orientada a objetos, análise de decisão multi-atributo e programação linear inteira. O objetivo do modelo é dar suporte à customização de produtos/serviços, em que as escolhas do cliente são gerenciadas pela relevância relativa de um conjunto de atributos sobre um conjunto de combinações de componentes oferecidas pela empresa, e com a limitação de restrições técnicas, estéticas e financeiras, que definem interativamente projetistas e consumidores. A integração das técnicas resulta em uma representação do processo de configuração que considera, simultaneamente, a abordagem técnica, explícita e objetiva dos projetistas e a abordagem baseada em intenções e preferências do consumidor. Com o modelo desenvolvido, o cliente pode definir regras e fornecer informação que pode ser utilizada para representar o conhecimento tácito em um modelo de programação linear que otimiza a sua utilidade específica. O modelo computacional é capaz de implementar o processo cognitivo que caracteriza a configuração de produtos em um ambiente de customização em massa de forma explícita, dinâmica e flexível. Experimentos foram realizados para exemplificar como é utilizado o programa e um estudo de caso foi desenvolvido para validar o modelo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mensalmente são publicados relatórios pelo Departamento de Agricultura dos Estados Unidos (USDA) onde são divulgados dados de condições das safras, oferta e demanda globais, nível dos estoques, que servem como referência para todos os participantes do mercado de commodities agrícolas. Esse mercado apresenta uma volatilidade acentuada no período de divulgação dos relatórios. Um modelo de volatilidade estocástica com saltos é utilizado para a dinâmica de preços de milho e de soja. Não existe um modelo ‘ideal’ para tal fim, cada um dos existentes têm suas vantagens e desvantagens. O modelo escolhido foi o de Oztukel e Wilmott (1998), que é um modelo de volatilidade estocástica empírica, incrementado com saltos determinísticos. Empiricamente foi demonstrado que um modelo de volatilidade estocástica pode ser bem ajustado ao mercado de commodities, e o processo de jump-diffusion pode representar bem os saltos que o mercado apresenta durante a divulgação dos relatórios. As opções de commodities agrícolas que são negociadas em bolsa são do tipo americanas, então alguns métodos disponíveis poderiam ser utilizados para precificar opções seguindo a dinâmica do modelo proposto. Dado que o modelo escolhido é um modelo multi-fatores, então o método apropriado para a precificação é o proposto por Longstaff e Schwartz (2001) chamado de Monte Carlo por mínimos quadrados (LSM). As opções precificadas pelo modelo são utilizadas em uma estratégia de hedge de uma posição física de milho e de soja, e a eficiência dessa estratégia é comparada com estratégias utilizando-se instrumentos disponíveis no mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo buscou verificar a influencia dos agentes da cadeia de suprimentos no desempenho do desenvolvimento de novos produtos quando os agentes são analisados em conjunto. A motivação desta pesquisa veio de estudos que alertaram para a consideração da integração da cadeia de suprimentos como um constructo multidimensional, englobando o envolvimento da manufatura, fornecedores e clientes no desenvolvimento de novos produtos; e devido à falta de informação sobre as influencias individuais destes agentes no desenvolvimento de novos produtos. Sob essas considerações, buscou-se construir um modelo analítico baseado na Teoria do Capital Social e Capacidade Absortiva, construir hipóteses a partir da revisão da literatura e conectar constructos como cooperação, envolvimento do fornecedor no desenvolvimento de novos produtos (DNP), envolvimento do cliente no DNP, envolvimento da manufatura no DNP, antecipação de novas tecnologias, melhoria contínua, desempenho operacional do DNP, desempenho de mercado do NPD e desempenho de negócio do DNP. Para testar as hipóteses foram consideradas três variáveis moderadoras, tais como turbulência ambiental (baixa, média e alta), indústria (eletrônicos, maquinários e equipamentos de transporte) e localização (América, Europa e Ásia). Para testar o modelo foram usados dados do projeto High Performance Manufacturing que contém 339 empresas das indústrias de eletrônicos, maquinários e equipamentos de transporte, localizadas em onze países. As hipóteses foram testadas por meio da Análise Fatorial Confirmatória (AFC) incluindo a moderação muti-grupo para as três variáveis moderadoras mencionadas anteriormente. Os principais resultados apontaram que as hipóteses relacionadas com cooperação foram confirmadas em ambientes de média turbulência, enquanto as hipóteses relacionadas ao desempenho no DNP foram confirmadas em ambientes de baixa turbulência ambiental e em países asiáticos. Adicionalmente, sob as mesmas condições, fornecedores, clientes e manufatura influenciam diferentemente no desempenho de novos produtos. Assim, o envolvimento de fornecedores influencia diretamente no desempenho operacional e indiretamente no desempenho de mercado e de negócio em baixos níveis de turbulência ambiental, na indústria de equipamentos de transporte em países da Americanos e Europeus. De igual forma, o envolvimento do cliente influenciou diretamente no desempenho operacional e indiretamente no desempenho de mercado e do negócio em médio nível de turbulência ambiental, na indústria de maquinários e em países Asiáticos. Fornecedores e clientes não influenciam diretamente no desempenho de mercado e do negócio e não influenciam indiretamente no desempenho operacional. O envolvimento da manufatura não influenciou nenhum tipo de desempenho do desenvolvimento de novos produtos em todos os cenários testados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As tecnologias da informação e comunicação (TIC) estão presentes nas mais diversas áreas e atividades cotidianas, mas, em que pesem as ações de governos e instituições privadas, a informatização da saúde ainda é um desafio em aberto no Brasil. A situação atual leva a um questionamento sobre as dificuldades associadas à informatização das práticas em saúde, assim como, quais efeitos tais dificuldades têm causado à sociedade Brasileira. Com objetivo de discutir as questões acima citadas, esta tese apresenta quatro artigos sobre processo de informação da saúde no Brasil. O primeiro artigo revisa a literatura sobre TIC em saúde e baseado em duas perspectivas teóricas – estudos Europeus acerca dos Sistemas de Informação em Saúde (SIS) nos Países em Desenvolvimento e estudos sobre Informação e Informática em Saúde, no âmbito do Movimento da Reforma Sanitária –, formula um modelo integrado que combina dimensões de análise e fatores contextuais para a compreensão dos SIS no Brasil. Já o segundo artigo apresenta os conceitos e teóricos e metodológicos da Teoria Ator-Rede (ANT), uma abordagem para o estudo de controvérsias associadas às descobertas científicas e inovações tecnológicas, por meio das redes de atores envolvidos em tais ações. Tal abordagem tem embasado estudos de SI desde 1990 e inspirou as análises dois artigos empíricos desta tese. Os dois últimos artigos foram redigidos a partir da análise da implantação de um SIS em um hospital público no Brasil ocorrida entre os anos de 2010 e 2012. Para a análise do caso, seguiram-se os atores envolvidos nas controvérsias que surgiram durante a implantação do SIS. O terceiro artigo se debruçou sobre as atividades dos analistas de sistema e usuários envolvidos na implantação do SIS. As mudanças observadas durante a implantação do sistema revelam que o sucesso do SIS não foi alcançado pela estrita e técnica execução das atividades incialmente planejadas. Pelo contrário, o sucesso foi construído coletivamente, por meio da negociação entre os atores e de dispositivos de interessamento introduzidos durante o projeto. O quarto artigo, baseado no conceito das Infraestruturas de Informação, discutiu como o sistema CATMAT foi incorporado ao E-Hosp. A análise revelou como a base instalada do CATMAT foi uma condição relevante para a sua escolha durante a implantação do E-Hosp. Além disso, descrevem-se negociações e operações heterogêneas que aconteceram durante a incorporação do CATMAT no sistema E-Hosp. Assim, esta tese argumenta que a implantação de um SIS é um empreendimento de construção coletiva, envolvendo analistas de sistema, profissionais de saúde, políticos e artefatos técnicos. Ademais, evidenciou-se como os SIS inscrevem definições e acordos, influenciando as preferências dos atores na área de saúde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os leilões para concessão de blocos de petróleo no Brasil utilizam uma equação para formar a pontuação que define o vencedor. Cada participante deve submeter ao leiloeiro um lance composto por três atributos: Bônus de Assinatura (BA), Programa Exploratório Mínimo (PEM) e Conteúdo Local (CL). Cada atributo possui um peso na equação e a nota final de cada participante também depende dos lances ofertados pelos outros participantes. Apesar de leilões de petróleo serem muito estudados na economia, o leilão multi-atributos, do tipo máxima pontuação, ainda é pouco analisado, principalmente como mecanismo de alocação de direitos minerários. Este trabalho destaca a inserção do CL como atributo que transforma a estrutura, do que poderia ser um leilão simples de primeiro preço, em um leilão multi-atributos de máxima pontuação. Demonstra-se como o CL, através da curva de custos do projeto, está relacionado também ao Bônus de Assinatura, outro importante atributo da equação. Para compreender o impacto do fenômeno da inserção do CL, foram criados três casos de leilões hipotéticos, onde, dentre outras simplificações, o programa exploratório mínimo foi fixado para todas as empresas envolvidas. No caso base (Sem CL), simula-se a estrutura de um leilão de primeiro preço, onde apenas o BA define o vencedor do leilão. Já no caso forçado (CLO=CLR), há inserção do atributo CL, sendo o participante obrigado a cumprir o CL ofertado. Por fim, o caso completo (Com Multa) permite que o participante preveja a aplicação de multa por descumprimento do CL ofertado e, caso haja benefício econômico, descumpra efetivamente o CL ofertado. Considerando estes casos, argumenta-se que, apesar do o lucro das empresas e a eficiência do leilão não serem alterados, a inclusão do conteúdo local na estrutura do leilão pode ter reflexos consideráveis na receita do governo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nota: A autora agradece à Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) pela concessão de bolsa de estudos para o desenvolvimento deste projeto de pesquisa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos 30 anos os executivos têm consistentemente identificado o alinhamento estratégico entre TI e negócio como uma das suas principais preocupações ainda não devidamente endereçadas. Existem diversos conceitos definidos sobre o significado deste alinhamento e suas consequências na performance das empresas, mas os estudos ainda são vagos em relação a como ele pode ser atingido e focam principalmente no alinhamento entre executivos, explorando pouco o nível operacional nas organizações. O objetivo deste estudo foi aprofundar-se no alinhamento entre TI e unidades de negócio na dimensão operacional, através de um estudo de caso avaliando o impacto na percepção de alinhamento entre as áreas após a criação de uma área dedicada ao relacionamento entre TI/Negócio, composta por profissionais de TI especializados e com conhecimentos específicos das unidades de negócio que atendem, visando um melhor entendimento dos objetivos da organização. Para tanto, foi aplicada uma abordagem multi-metodológica utilizando-se de Insider Action Research, que investiga um fenômeno partindo de uma intervenção no ambiente (em que o pesquisador faz parte), em conjunto com Design Research, que realiza o estudo de forma qualitativa centrada na construção e avaliação cíclica de um artefato. Para este estudo de caso, o artefato criado foi o método de trabalho utilizando-se de uma área responsável pela gestão do relacionamento entre TI/Negócio e a intervenção foi a implantação deste artefato na organização. As percepções foram capturadas através de reuniões com gestores da organização. As avaliações de efetividade foram apoiadas no framework de Luftman que mede o nível de alinhamento entre TI/Negócio em seis dimensões (Comunicação, Mensuração, Governança, Parceria, Escopo/Arquitetura e Competências). Os resultados mostraram que a criação da área de relacionamento TI/Negócios teve um claro impacto positivo na percepção de alinhamento entre as áreas, principalmente nas dimensões de comunicação e parceria. O estudo mostra que este tipo de abordagem gera uma maior sensação de confiança e proximidade e, portanto, pode ser utilizada para evoluir o alinhamento operacional entre as áreas.