999 resultados para Modelagem de processos
Resumo:
O ponto de partida para este estudo foi o contraste entre a provável centralidade da decisão, defendida em boa parte da literatura administrativa, e a experiência de inclusão digital bem sucedida implantada na pequena cidade de Piraí-RJ. A originalidade deste programa e a sua maneira aparentemente caótica de encaminhamento foram inquietações que impulsionaram o retorno do pesquisador às teorias sobre o processo decisório e a formulação e implantação de políticas públicas. Neste trabalho busca-se contribuir com o debate sobre a decisão e o processo decisório a partir de duas questões de pesquisa: qual a centralidade dos processos decisórios para os resultados alcançados nas experiências consideradas inovadoras em municípios de pequeno porte populacional (abaixo de 30 mil habitantes)? E como caracterizar esses processos em relação à literatura acadêmica sobre a temática? O foco do trabalho é a área pública, na qual a temática da decisão tem forte intersecção com a temática da formulação e implementação das políticas públicas. Escolheu-se a análise dos fluxos de ações nas ações inovadoras ocorridas em municípios de pequeno porte populacional que correspondem a mais de 80% do total de municípios no Brasil. As limitações da pesquisa estão relacionadas à área pesquisada, ao tipo de município selecionado e aos projetos e programas analisados. As referências teóricas utilizadas neste trabalho são as seguintes: Escolha Racional, Racionalidade Limitada, Agenda de Políticas Públicas, Incrementalismo, Garbage Can, Sensemaking e, finalmente, Groping Along. Para efeitos da articulação entre essas teorias e os casos estudados, utilizou-se a lógica subjacente de cada teoria e a sua relação com o processo relatado pelos participantes das experiências selecionadas. O estudo foi desenvolvido em três fases. Na primeira, após as questões iniciais que emergiram da experiência de inclusão digital em Piraí, fez-se uma revisão bibliográfica da literatura relativa ao processo decisório. A partir disso, fez-se uma análise de documentos e relatos feitos por gestores e técnicos de 34 diferentes experiências inovadoras premiados pelo Programa Gestão Pública e Cidadania, entre 1996-2005, na qual se buscou captar os fluxos de ações que permearam os projetos e programas. Na terceira parte, procedeu-se uma pesquisa em profundidade em quatro estudos de caso nos estados da Bahia, Rio de Janeiro e São Paulo, utilizando-se técnicas da história oral e análise de documentos. Os casos estudados foram: Creche Noturna em Laranjal Paulista-SP, Desenvolvimento Local e Inclusão Digital em Piraí-RJ, Desenvolvimento Local Agroambiental em Almadina-BA e, finalmente, Manejo da Samambaia Silvestre em Ilha Comprida-SP. Os resultados obtidos contrastam com a literatura acadêmica cuja lógica subjacente é predominantemente linear e que defende a centralidade e a importância da decisão na obtenção de resultados maximizadores, e sugerem ainda que sejam as proposições dos processos decisórios menos lineares e os processos de formulação de políticas públicas que buscam captar as práticas cotidianas dos gestores permeada pelas imperfeições e deselegâncias do dia-a-dia - que melhor contribuem para sua compreensão.
Resumo:
Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.
Resumo:
A popularização da Internet e o crescimento da educação à distância tornaram possível a criação de softwares e cursos à distância, disponíveis na WWW. Atualmente, a Inteligência Artificial (IA) vem sendo utilizada para aumentar a capacidade de ambientes de educação à distância, diminuindo a desistência pela falta de estímulos externos e de interação entre colegas e professores. Este trabalho encontra-se inserido no ambiente colaborativo suportado por computador, definido no projeto “Uma Proposta de Modelo Computacional de Aprendizagem à Distância Baseada na Concepção Sócio-Interacionista de Vygotsky” chamado MACES (Multiagent Architecture for an Collaborative Educational System). Sua principal proposta, como parte do projeto do grupo, é desenvolver e implementar a interface animada do personagem para os agentes pedagógicos animados Colaborativo e Mediador que operam no ambiente de aprendizado colaborativo proposto pelo grupo. O personagem desenvolvido chama-se PAT (Pedagogical and Affective Tutor). A interface do personagem foi desenvolvida em Java, JavaScript e usa o Microsoft Agent para a movimentação. O Resin 2.1.6 (semelhante ao Tomcat que também foi usado de teste) é o compilador de servlet usado na execução de Java Servlet’s e tecnologias jsp – que monta páginas HTML dinamicamente. Esta montagem é feita no servidor e enviada para o browser do usuário. Para definir a aparência do personagem foram feitas entrevistas com pedagogas, psicólogas, psicopedagogas e idéias tiradas de entrevistas informais com profissionais que trabalham com desenho industrial, propaganda, cartoon e desenho animado. A PAT faz parte da interface do MACES e promove a comunicação entre esse ambiente e o usuário. Portanto, acredita-se que a PAT e os recursos da Inteligência artificial poderão aumentar a capacidade de ambientes de educação à distância, tornando-os mais agradáveis, assim como diminuir a desistência pela falta de estímulos externos e de interação com colegas e professores.
Resumo:
The rapid growth of urban areas has a significant impact on traffic and transportation systems. New management policies and planning strategies are clearly necessary to cope with the more than ever limited capacity of existing road networks. The concept of Intelligent Transportation System (ITS) arises in this scenario; rather than attempting to increase road capacity by means of physical modifications to the infrastructure, the premise of ITS relies on the use of advanced communication and computer technologies to handle today’s traffic and transportation facilities. Influencing users’ behaviour patterns is a challenge that has stimulated much research in the ITS field, where human factors start gaining great importance to modelling, simulating, and assessing such an innovative approach. This work is aimed at using Multi-agent Systems (MAS) to represent the traffic and transportation systems in the light of the new performance measures brought about by ITS technologies. Agent features have good potentialities to represent those components of a system that are geographically and functionally distributed, such as most components in traffic and transportation. A BDI (beliefs, desires, and intentions) architecture is presented as an alternative to traditional models used to represent the driver behaviour within microscopic simulation allowing for an explicit representation of users’ mental states. Basic concepts of ITS and MAS are presented, as well as some application examples related to the subject. This has motivated the extension of an existing microscopic simulation framework to incorporate MAS features to enhance the representation of drivers. This way demand is generated from a population of agents as the result of their decisions on route and departure time, on a daily basis. The extended simulation model that now supports the interaction of BDI driver agents was effectively implemented, and different experiments were performed to test this approach in commuter scenarios. MAS provides a process-driven approach that fosters the easy construction of modular, robust, and scalable models, characteristics that lack in former result-driven approaches. Its abstraction premises allow for a closer association between the model and its practical implementation. Uncertainty and variability are addressed in a straightforward manner, as an easier representation of humanlike behaviours within the driver structure is provided by cognitive architectures, such as the BDI approach used in this work. This way MAS extends microscopic simulation of traffic to better address the complexity inherent in ITS technologies.
Resumo:
Os processos de downsizing tornaram-se tão freqüentes que é raro atualmente conhecer alguém que nunca tenha sido demitido. As demissões em massa se intensificaram no final da década de 80, atingiram seu ápice na década de 90 e continuam ocorrendo com freqüência. Poderíamos pensar que, já que ser demitido tornou-se quase corriqueiro, isso tornaria as demissões menos traumáticas para as pessoas. Porém isso não é atestado por vários estudos sobre demissões, que mostram que os processos de downsizing trazem, em geral, conseqüências bastante dramáticas para os indivíduos. Vários estudos já foram realizados sobre os efeitos das demissões para os demitidos e para os remanescentes. Este trabalho visa entender como as pessoas que demitem dão sentido à prática de demitir, ou seja, quais as justificativas que usam ao praticarem atos que geralmente causam dor e sofrimento a outras pessoas. A pesquisa investiga também como os profissionais de recursos humanos, responsáveis pelas políticas e práticas relacionadas às pessoas dentro das organizações, dão sentido às demissões em massa, atividade que hoje é, muitas vezes, mais comum do que a própria contratação de pessoas. Para desvendar os sentidos produzidos pelos demissores e profissionais de recursos humanos em processos de downsizing, foram analisadas, com a metodologia de análise de conteúdo, entrevistas com 12 demissores e 13 profissionais de recursos humanos, no total de 25 entrevistas. A coleta do material de pesquisa ocorreu com entrevistas em profundidade semi-estruturadas. A análise das entrevistas nos permite dizer que as demissões, em geral, trazem conseqüências muito dramáticas para as pessoas: demitidos, remanescentes e demissores. Para que seja possível lidar com as demissões, os demissores constroem sentidos e percebem as práticas de downsizing como resultado da objetivação da globalização. Além disso, os demissores reforçam a promessa de ajuda aos demitidos na busca de uma nova posição, seja por meio de programas de recolocação profissional, seja no esforço individual dos demissores. Os demissores revelaram também sua percepção de que, de alguma maneira, os demitidos encontrarão novas oportunidades de trabalho. Nossa pesquisa também desvendou maneiras de legitimação dos processos de downsizing, com a contribuição da retórica da administração de recursos humanos diante desses processos. Para praticar atos que, em geral, trazem dor e sofrimento, os demissores precisam amenizar, de alguma maneira, as conseqüências do próprio ato
Resumo:
O ambiente financeiro internacional vem passando por profundas mudanças ao longo das últimas décadas, decorrentes especialmente da evolução tecnológica e científica, onde a globalização da atividade bancária e a alta competição por ganhos nunca antes imaginados expõem as corporações bancárias e a própria sociedade a toda sorte de riscos, considerando-se as possibilidades de perdas decorrentes de uma má gestão dos riscos e de eventuais comportamentos oportunistas dos seus agentes. Tem-se presenciado, por exemplo, os casos de crise recentes do subprime nos EUA e das perdas de mais de 4 bilhões de euros ocasionadas pelo operador Jérôme Kerviel do Société Générale. Da mesma forma, paralelamente esforços vem sendo desenvolvidos para padronização do controle e da regulação dos riscos em escala mundial, como forma de garantir um ambiente de segurança à atividade bancária internacional. Trata-se do Comitê de Basiléia, uma convenção internacional criada em 1974 e cujas recomendações são hoje seguidas por mais de 100 países, incluindo o Brasil. Em 2004 o comitê publicou o Novo Acordo de Capital (Basiléia II) que indica práticas para controle e mitigação de uma nova modalidade de risco, o risco operacional, ou seja, a possibilidade de ocorrência de perdas resultantes de falha, deficiência ou inadequação de processos internos, pessoas e sistemas, ou de eventos externos. Sua correspondente na legislação brasileira é a Resolução nº 3.380/06 do Conselho Monetário Nacional. A resolução determina a criação de uma estrutura dedicada para gerenciamento do risco operacional e da adoção das recomendações de Basiléia II sobre o tema em todas as organizações autorizadas a operar no Brasil pelo Banco Central do Brasil. Trata-se de um grande desafio para as empresas e seus gestores de risco que devem desenvolver e incorporar novos mecanismos de controle, os quais foram convencionados internacionalmente, a despeito de todas as dificuldades de ordem técnica e organizacional, envolvidas nos processos de adequação. O espírito da lei é da busca de total transparência das organizações e de seus membros no tocante à presença de falhas, deficiências e inadequações das práticas do dia-a-dia. Entretanto, há aspectos organizacionais como cultura, práticas sociais e elementos de interpretação que interferem na aplicação da lei na prática (enforcement). Este é um trabalho de caráter exploratório, descritivo e empírico que buscou entender através de análise qualitativa ‘se’ e ‘como’ esse espírito pode ser disseminado e incorporado dentro das organizações bancárias brasileiras de forma a se cumprir a lei e os prazos por ela determinados, face às pressões internacionais por padronização dos controles e da regulação do risco operacional, às pressões do mercado local e às pressões geradas internamente pelo próprio meio institucional da organização, além das necessidades prementes de atendimento à legislação. Espera-se que os resultados deste trabalho contribuam para o endereçamento de futuras pesquisas a cerca do tema.
Resumo:
O presente trabalho objetiva caracterizar e analisar, de maneira exploratória, o processo de inovação sistemático e assistemático, em empresas brasileiras, utilizando fontes variadas de informações, entre elas a visão de seus dirigentes, possibilitando uma melhor compreensão das práticas administrativas exercidas pelas empresas para atingirem os seus propósitos organizacionais. Resultante deste escopo de trabalho, o estudo procurou retratar o processo de inovação com base em três aspectos: a caracterização da empresa e do mercado em que a mesma atua; a caracterização das práticas de inovação - envolvendo suas estratégias, a proposição de oferta de valor ao mercado, produtos e serviços e o modelo de gestão; e as principais contribuições advindas do processo de inovação para a empresa, considerando os impactos em mercados, produtos, serviços, stakeholders e os resultados finais alcançados. O estudo foi dividido em duas partes, sendo a primeira uma revisão teórica acerca da evolução do conceito de inovação e a sua origem da teoria econômica, sua adoção como um processo organizado e sistemático pelas empresas, finalizando com as principais narrativas que envolvem o tema atualmente. Na segunda, a natureza do estudo foi empírica, sendo realizada uma pesquisa por meio de estudo de casos múltiplos, onde puderam ser analisados os processos de inovação e os aspectos facilitadores e inibidores de sua implementação em três organizações brasileiras. A elaboração atualizada da revisão bibliográfica confrontada com o estudo dos casos selecionados, formaram o esteio deste trabalho que permitiu realizar algumas recomendações, com a finalidade de aumentar o conhecimento acerca dos processos de inovação, sistemáticos e assistemáticos, em organizações brasileiras.
Resumo:
O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.
Resumo:
Na atual era do conhecimento, a informação ganhou importância nos meios empresarial e acadêmico, reforçando o interesse por estudos de desenvolvimento de sistemas de informação voltados para as necessidades específicas dos ambientes em que serão aplicados. A tecnologia de Internet é um exemplo. Sistemas de Informação na Web são sistemas de informação que utilizam a Web como substrato estrutural, o que requer metodologias de desenvolvimento adequadas. Por outro lado, determinados sistemas de informação precisam ser adaptados a necessidades cíclicas de uso, como processos que se repetem periodicamente. O presente trabalho tem como objetivo alinhar estas duas necessidades através da identificação de uma proposta metodológica para modelagem de sistemas de informações na Web com características sazonais. Para tanto, empregou-se a metodologia de pesquisa-ação. Como resultado prático, é descrita a aplicação do método proposto no desenvolvimento de um sistema de informação na Web para gestão do Encontro Nacional de Engenharia de Produção (ENEGEP), o mais importante congresso científico da área de Engenharia de Produção no Brasil. Concluiu-se que o método proposto atendeu bem o desenvolvimento das características específicas de sazonalidade da utilização do sistema em questão.
Resumo:
Na presente dissertação foi implementado um modelo para execução de hedging de mínima variância de opções de compra européias em mercados incompletos, considerando um espaço de tempo discreto e contínuo de estados. O desempenho foi medido de forma comparativa tomando como base a popular estratégia delta-hedging em um grande número de simulações, a partir de cenários definidos com o objetivo de submeter o modelo a diversas situações. A trajetória do preço do ativo objeto foi representada por um processo de difusão com saltos, composto por duas parcelas: (i) um processo de Wiener, cuja principal característica é ser uma função contínua e diferenciável em todos os pontos, e (ii) por um processo de Poisson, responsável por inserir descontinuidades na trajetória.
Resumo:
Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.
Resumo:
As mudanças ocorridas no macroambiente do agronegócio do leite no Brasil trazem a necessidade de re-fazer as concepções acerca de sua gestão. As práticas gerenciais precisam romper o conservadorismo e buscar uma adequação ao momento vivido sem os vícios de sua cultura. Na concepção de um sistema de gestão da pecuária leiteira, adaptado à realidade das unidades de produção familiares, inseriram-se conceitos da teoria das restrições por meio da estratégia de pesquisa-ação, no noroeste gaúcho-município de São Luiz Gonzaga. A pesquisa foi dividida em três passos: o primeiro passo selecionou, por meio de entrevistas focais, uma unidade de produção representativa de cada sistema com base em uma tipologia segmentada em três sistemas (especializado; intermediário e tradicional); o segundo serviu para testar o sistema de gestão da pecuária leiteira em cada uma das três unidades de produção escolhidas; o terceiro analisou e discutiu os resultados obtidos nas entrevistas, visitas e em documentos. A pesquisa evidenciou a aplicabilidade do sistema de gestão da pecuária leiteira nos três sistemas estudados, utilizando os princípios e a lógica de decisão da teoria das restrições. Os princípios do modelo de decisão da teoria das restrições permitiram tornar mais ágil e coerente o processo de tomada de decisão, assim como as medidas de desempenho da teoria das restrições tornaram a tarefa mais fácil e aplicável. A abordagem sistêmica da teoria das restrições se adequou à complexidade dos sistemas de produção da pecuária leiteira.
Resumo:
O objetivo deste trabalho foi analisar o processo de ensino-aprendizagem de Física através de abordagens didáticas envolvendo o uso de atividades de simulação e modelagem computacionais em um ambiente de atividade colaborativa presencial. Num primeiro estudo, realizado a partir de uma metodologia quantitativa, avaliou-se o desempenho dos alunos em testes que tinham como tópico a interpretação de gráficos da Cinemática, antes e depois de trabalharem com atividades de simulação e modelagem computacionais em atividades extra-aula. Os resultados deste primeiro estudo mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. Na seqüência, foram realizados outros dois estudos dentro de uma metodologia qualitativa, em que o foco estava no processo de ensino-aprendizagem que ocorre em ambiente de sala de aula. Foi utilizada uma abordagem que envolveu, além das atividades computacionais, um método colaborativo presencial como dinâmica de base para o estabelecimento das relações interpessoais entre o professor e a turma, e os alunos entre si.A fundamentação teórica adotada esteve baseada na teoria de Ausubel sobre aprendizagem significativa e na teoria de Vygotsky sobre interação social. O referencial de Halloun sobre modelagem esquemática também foi utilizado. Os resultados sugerem que as atividades de simulação e modelagem computacionais são potencialmente facilitadoras de aprendizagem significativa em Física. Sugerem, também, que a atividade colaborativa presencial contribui positivamente para esse tipo de aprendizagem.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
Esta tese apresenta uma proposta de modelo de referência para o processo de desenvolvimento de produtos farmacêuticos, a qual foi alicerçada nos preceitos da Engenharia Silmutânea, do Desenvolvimento Integrado de produtos, do sistema Stage Gates e do Product Based Business. O modelo de referência para o PDP foi desenvolvido a partir de informações da literatura de desenvolvimento de produtos, literatura farmacêutica e de entrevistas realizadas com profissionais farmacêuticos que trabalham em empresas de médio e grande porte , e com outros profissionais que ocupam cargos relacionados com o processo de desenvolvimento de produtos. Também contribui com a construção do modelo, uma entrevista com um representante da ANVISA da área de de registro de medicamentos genéricos, particularmente no entendimento das relações entre empresas e agência de registro. A partir da ferramenta de modelagem EDT (estrutura do desmembramento do trabalho) e de uma matriz de atividades versus responsabilidades, foi possível modelar o processo em três macroetapas e sete fases, abrangendo desde a identificação de uma oportunidade de negócio até o lançamento do produto no mercado. O modelo também contempla seis estágios-portão ou gates, os quais são acompanhados de listas de verificação (check lists) e outros documentos de controle de PDP No modelo referncial, as fases que são pouco descritas ou contempladas nos processos farmacêuticos foram enfatizadas, e para facilitar a compreensão do modelo, empregou-se um exemplo de aplicação através da simulação do desenvolvimento de um medicamento antinflamatório, o ibuprofeno. O trabalho também apresenta o método subjacente ao modelo de referência, explicitando as componentes: processo,princípios, práticas, cultura e ferramentas, as quais oferecem sustentação ao mesmo. Por fim, as entrevistas revelaram algumas dificuldades e facilidades encontradas durante o registro de medicamentos na ANVISA. O modelo de referência proposto guarda em si generalidade suficiente para servir de inspiração para fabricação de medicamentos e cosméticos variantes, nos diferentes estados físicos e pertencentes às diferentes classes terapêuticas. No caso de produtos inovadores, as atividades das fases iniciais do modelo (pré-desenvolvimento) deverão ser revistas.