808 resultados para Visualização


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A prestação jurisdicional eficiente e eficaz é uma exigência social e constitucional. Um círculo virtuoso pode ser instaurado pela cobrança social de melhoria dos serviços prestados pelo Poder Judiciário. A resposta a essa exigência é necessária, com a reformulação e revisão de conceitos, estruturas e cultura organizacional. A atuação nessa seara impacta a legitimação do Poder Judiciário, podendo elevá-la tanto mais satisfeitas as expectativas sociais. Os conceitos de gestão e sua implementação devem ser parte das atividades judiciais, desde a alta administração até a gestão da unidade judicial. Há necessidade, portanto, de um sistema de gestão que permeie todas as atividades desenvolvidas. O Tribunal de Justiça do Rio Grande do Sul desde 1995 adotou o Programa Gaúcho de Qualidade e Produtividade (PGQP), através do Plano de Gestão pela Qualidade no Poder Judiciário do Rio Grande do Sul (PGQJ). A recente formulação do Planejamento Estratégico trouxe novas perspectivas, objetivos e desafios. A concreção dos objetivos estratégicos traçados depende do alinhamento das unidades judiciais. Surge aí a importância de um sistema de gestão das unidades judiciais, com elementos e indicadores definidos, permitindo a visualização pela alta administração do andamento da instituição em busca dos objetivos estabelecidos. Alinhada à importância do tema, propõe-se a apresentação dos principais elementos formadores de um sistema de gestão de unidade judicial: direcionamento e alinhamento estratégico; planejamento da microgestão; estrutura organizacional; processos de trabalho; procedimentos operacionais padrão; rotinas cartorárias; gestão de pessoas; treinamento e liderança. O Sistema de Gerenciamento Matricial dos Serviços Judiciários (GMS- JUD), desenvolvido pelo Tribunal de Justiça do Rio Grande do Sul com a consultoria do Instituto Nacional de Desenvolvimento Gerencial (INDG), é apresentado como direcionador de acompanhamento do planejamento traçado pelas unidades judiciais, compondo o sistema de gestão proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A contextualização está em torno de atividades voltadas ao planejamento em função da organização se estruturar sobre bases tecnológicas e sistemicas para gerir os seus processos. A teoria sistêmica aplicada à organização gera a necessidade eminente de integração. Este processo recorre à necessidade de planos estratégicos, onde as definições e metodologias aplicadas devem seguir-se à disciplina focada aos processos que requerem decisão e execução na busca de metas definidas. Neste aspecto, a implantação de sistemas de informação como ferramentas auxiliares aos processos decisórios, eXigem uma sistemática ou metodologia para visualização dos resultados e uso dos mesmos como retorno ao processo de alimentação dos dados, geradores de novas conjecturas decisórias. É necessário o conhecimento básico da organização, o contexto em que a mesma se enquadra, e de que forma deveremos atuar em seu desenvolvimento Para esta adota-se etapas onde analisamos o empreendimento, políticas ou diretrizes organizacionais, a metodologia de implantação sistemicas, associada às reais necessidades da empresa, bem como sua infraestrutura e capacidade de esforço

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Planejamento Estratégico é peça da maior importância em uma Organização. Normalmente, após exaustivas reuniões e custos significativos em sua elaboração, ele é engavetado ou passa a ser uma peça decorativa. Esta dissertação apresenta a construção do Painel de Pilotagem para a utilização do Balanced Scorecard em empresa de autogestão, sem fins lucrativos, que atua na área de saúde. Para atingir os objetivos da pesquisa, o método foi o de pesquisa-ação. O Balanced Scorecard é uma ferramenta para a implantação da Estratégia Empresarial. A discussão, os debates da Estratégia, a sua demonstração e aplicação e acompanhamento via Painel de Pilotagem são um diferencial significativo para o acompanhamento da gestão. O alinhamento obtido nos dez meses de reuniões para a construção do Painel de Pilotagem, na empresa pesquisada, demonstra o interesse da organização em efetivar a implantação de seu Planejamento Estratégico. Com a implantação do BSC, a determinação dos rumos do negócio deixará de apoiar-se basicamente em análise de dados do passado, para demonstrar o desempenho do que foi feito na Empresasaúde RS, mas possibilitará, também, uma melhor projeção e visualização do futuro, para demonstrar o que deverá ser feito, o caminho a ser percorrido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão apresenta um método e uma ferramenta para avaliação da maturidade e da capacitação de ambientes de desenvolvimento de software baseado no uso da abordagem Goal/Question/Metric-GQM combinada aos métodos tradicionais de avaliação já existentes para o modelo Capability Maturity Model-CMM. A aplicação deste método através da ferramenta proposta permitirá a organização avaliada estabelecer o grau de conformidade preliminar dos seus processos em relação às exigências do modelo CMM. Esta avaliação poderá ser utilizada como ponto de partida para o estabelecimento de um processo de melhoria. O modelo CMM descreve uma série de estágios de maturidade que são atingidos através da satisfação de metas estabelecidas para áreas-chave do processo de desenvolvimento de software da organização. A evolução deste modelo, chamada de CMMI, Capability Maturity Model Integrated, possibilita que as organizações optem pela forma de implementação do modelo. Esta opção pode se dar através do uso do CMMI em estágios, vertical utilizando os níveis tradicionais do modelo, ou contínua; horizontal baseada nas áreas-chave de processo. Da mesma forma, a avaliação pode ser realizada sobre qualquer modelo escolhido. O modelo GQM descreve uma estrutura hierárquica baseada na existência de metas de melhoria preestabelecidas das quais são extraídas métricas e questões que as satisfazem. O nível de satisfação dessas metas é obtido através da análise das métricas relativas às questões aplicadas ao foco da avaliação Algumas ferramentas para avaliação dos processos relativos ao modelo CMM são apresentadas, tais como o questionário da maturidade e os modelos existentes para a criação de métodos de avaliação, CMM Apraisal Framework-CAF e Apraisal Requirements for CMMI-ARC. O diferencial apresentado é o estabelecimento de métricas objetivas e regras de interpretação dessas para a definição da satisfação de uma determinada área-chave de processo, ACP, do nível 2 do modelo CMMI. Além dessas contribuições vale destacar o estabelecimento de questões adicionais ao questionário da maturidade com o objetivo de capturar essas métricas e a criação de grafos GQM para cada ACP do nível 2 do CMMI. Esses grafos permitem a visualização do relacionamento existente entre cada ACP do nível 2 do CMMI com suas metas, questões e métricas. A aplicação do método e da ferramenta será demonstrada através da utilização de um estudo de caso aplicado na empresa DWA Informática Ltda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esquema de referências teórico-práticas para visualização do problema das desigualdades educacionais em termos da distinção metodológica competência-performance. Apresentação da projeção da experiência linguístico-pedagógica de Bontolila para a iniciação do aluno do pré-escolar em seu universo sociolinguístico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As áreas de visualização e modelagem baseados em pontos têm sido pesquisadas ativamente na computação gráfica. Pontos com atributos (por exemplo, normais) são geralmente chamados de surfels e existem vários algoritmos para a manipulação e visualização eficiente deles. Um ponto chave para a eficiência de muitos métodos é o uso de estruturas de particionamento do espaço. Geralmente octrees e KD-trees, por utilizarem cortes alinhados com os eixos são preferidas em vez das BSP-trees, mais genéricas. Neste trabalho, apresenta-se uma estrutura chamada Constrained BSP-tree (CBSP-tree), que pode ser vista como uma estrutura intermediárias entre KD-trees e BSP-trees. A CBSP-tree se caracteriza por permitir cortes arbitrários desde que seja satisfeito um critério de validade dos cortes. Esse critério pode ser redefinido de acordo com a aplicação. Isso permite uma aproximação melhor de regões curvas. Apresentam-se algoritmos para construir CBSP-trees, valendo-se da flexibilidade que a estrutura oferece, e para realizar operações booleanas usando uma nova classificação de interior/exterior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta uma arquitetura de Sumarização Automática de Textos Consciente de Contexto que visa contribuir como fator de adaptação em dispositivos de computação móvel. O processo de sumarização proposto baseia-se em informações contextuais, especificamente localização espacial, temporalidade e perfis de usuário, em uma extensão do algoritmo de sumarização extrativa TF-ISF pela inclusão de níveis de relevância adicionais representados por Palavras-Contextuais. A necessidade de adaptação no processo de visualização de textos em dispositivos de computação móvel advém tanto do crescimento da disponibilização de informações em redes de computadores sem fio quanto das características e restrições intrínsecas da plataforma computacional móvel, bem como da baixa capacidade de armazenamento e processamento e interfaces restritas em termos de tamanho e possibilidades de interação. Como um dos possíveis fatores de adaptação sugere-se a utilização da sumarização automática de textos. Esta possibilita a seleção e apresentação das sentenças consideradas mais relevantes dos documentos originais produzindo, com isso, documentos compactos e mais apropriados para a materialização em dispositivos móveis. Entretanto, considera-se que os métodos de sumarização automática atualmente disponíveis na literatura não atendem plenamente a questão proposta porque não consideram, quando do processo de sumarização, as importantes informações contextuais fornecidas pela computação móvel. Como resultado do processo proposto de adaptação através da Sumarização Consciente de Contexto espera-se que os extratos obtidos sejam mais úteis aos usuários dos dispositivos de computação móvel pela sua maior adequação tanto ao contexto quanto ao perfil, bem como da efetiva consideração das limitações intrínsecas a estes. Esta solução visa contribuir fortemente para a disponibilização de informações adequadas e personalizadas, no momento oportuno, para o local adequado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa desenvolver um sistema portátil de radiocomunicação de radiação restrita, indicado para biotelemetria digital de curta distância aplicada ao Teste da Caminhada de Seis Minutos (TC6M) em pacientes com doença pulmonar obstrutiva crônica ou hipertensão pulmonar. A saturação periférica da hemoglobina (SpO2) e a freqüência cardíaca (FC) são monitoradas em tempo real. É utilizada a banda destinada a aplicações médicas, industriais e científicas (ISM), com freqüência de portadora em 916MHz e potência de transmissão de 0,75mW. Este sistema foi projetado para operar através de um enlace half duplex e codificação Manchester NRZ incorporando um protocolo para correção de erros do tipo automatic repeat request error com utilização de um código CRC-16 para detecção de erros. A velocidade máxima de transmissão de dados é de 115.2 kbps. O sistema é constituído de três partes: unidade portátil (Master), unidade estacionária (Slave) e software de visualização em tempo real. A unidade portátil recebe do oxímetro os parâmetros de monitorização que são transmitidos via enlace de rádio-freqüência. A interface da unidade estacionária com o software é feita através da porta de comunicação serial padrão RS-232. Os testes de laboratório e de campo demonstraram que o sistema de biotelemetria é adequado a realizar o TC6M com precisão de SpO2 de ±3 dígitos (com ±1 desvio padrão) e FC de ±3% ambos com taxa de Frame Error Rate < 10-4 (0,01%), sem restrigir os movimentos do usuário durante o processo de monitorização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa identificar práticas de design thinking (DT), isto é, as abordagens características da disciplina do design para criação de inovações, que possam ser incorporadas ao processo de desenvolvimento de novos produtos (DNP). Cinco dessas práticas – abordagem centrada em pessoas, estilo de trabalho colaborativo, pensar fazendo, visualização e combinação de abordagens divergente e convergente – foram analisadas por meio do estudo de caso em profundidade de três empresas polares: um escritório profissional de design, uma empresa de produtos para cuidados pessoais e um fabricante de ferramentas profissionais. A discussão teórica apoiou-se em autores de DNP e de DT que estudaram a evolução desses campos em gerações de maturidade, trazendo também visões bem recentes que apontam para a relevância das mudanças em curso. Entre os achados da pesquisa, observou-se que o modelo de gestão e a estrutura organizacional – orientada por projetos com times multifuncionais ou por processos com estrutura funcional – tem influência na adoção das práticas de DT. Outro achado, esse menos evidente, mostrou que a forma como a empresa se relaciona com clientes e usuários, guarda semelhança com a forma como trata seus profissionais de DNP. Uma descoberta interessante é a função moderadora do alinhamento de propósitos entre empresa e colaborador, para a adoção dessas práticas. Como contribuição ao campo de estudo, apresenta-se um diagrama de cinco gerações de evolução da oferta de novos produtos (ONP), termo utilizado para incorporar não só os produtos com inovações desenvolvidas e de propriedade da empresa focal, mas também aquelas desenvolvidas pelos próprios usuários e as inovações construídas nas redes sociais e oferecidas pela empresa focal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A visualização de conjuntos de dados volumétricos é comum em diversas áreas de aplicação e há já alguns anos os diversos aspectos envolvidos nessas técnicas vêm sendo pesquisados. No entanto, apesar dos avanços das técnicas de visualização de volumes, a interação com grandes volumes de dados ainda apresenta desafios devido a questões de percepção (ou isolamento) de estruturas internas e desempenho computacional. O suporte do hardware gráfico para visualização baseada em texturas permite o desenvolvimento de técnicas eficientes de rendering que podem ser combinadas com ferramentas de recorte interativas para possibilitar a inspeção de conjuntos de dados tridimensionais. Muitos estudos abordam a otimização do desempenho de ferramentas de recorte, mas muito poucos tratam das metáforas de interação utilizadas por essas ferramentas. O objetivo deste trabalho é desenvolver ferramentas interativas, intuitivas e fáceis de usar para o recorte de imagens volumétricas. Inicialmente, é apresentado um estudo sobre as principais técnicas de visualização direta de volumes e como é feita a exploração desses volumes utilizando-se recorte volumétrico. Nesse estudo é identificada a solução que melhor se enquadra no presente trabalho para garantir a interatividade necessária. Após, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para determinar as possíveis técnicas de interação mais fáceis de serem utilizadas por ferramentas de recorte. A partir desse embasamento, este trabalho apresenta o desenvolvimento de três ferramentas de recorte genéricas implementadas usando-se duas metáforas de interação distintas que são freqüentemente utilizadas por usuários de aplicativos 3D: apontador virtual e mão virtual. A taxa de interação dessas ferramentas é obtida através de programas de fragmentos especiais executados diretamente no hardware gráfico. Estes programas especificam regiões dentro do volume a serem descartadas durante o rendering, com base em predicados geométricos. Primeiramente, o desempenho, precisão e preferência (por parte dos usuários) das ferramentas de recorte volumétrico são avaliados para comparar as metáforas de interação empregadas. Após, é avaliada a interação utilizando-se diferentes dispositivos de entrada para a manipulação do volume e ferramentas. A utilização das duas mãos ao mesmo tempo para essa manipulação também é testada. Os resultados destes experimentos de avaliação são apresentados e discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conceito Balanced Scorecard (BSC) facilita a visualização da estratégia para liderança das organizações. No entanto, percebe-se, na prática, que é pouco explorado no tocante ao desdobramento das metas. Nesse contexto, a presente dissertação tem como objetivo identificar os fatores críticos de sucesso, à luz do conceito de BSC, que impactam o desdobramento de metas. Inicialmente, pretende-se verificar se o processo é realizado em todos os níveis das organizações, procurando identificar e compreender as principais dificuldades e lacunas. Para tanto, utiliza-se a aplicação de técnicas de convergência de opiniões, com base na metodologia Delphi, concentrando-se na percepção de profissionais especialistas e consultores no Brasil, que possuem experiência marcante na implementação e gestão de soluções BSC. A pesquisa revela que uma das principais dificuldades e lacunas, no que se refere ao desdobramento de metas, constitui-se em fazê-lo atingir a totalidade dos níveis nas organizações. A principal causa está no desalinhamento da estratégia, sendo que, ao mesmo tempo em que há um considerável esforço e dedicação por parte da força de trabalho, a estratégia apresenta, ainda, determinada falta de foco, fato que a compromete bem como ao resultado almejado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise tectono-estratigráfica da Bacia do Camaquã, uma sequência vulcanosedimentar do Neoproterozóico ao Eoproterozóico com depósitos de Cu (Au, Ag), Zn e Pb, é aqui apresentada com a utilização de ferramentas de sensoriamento remoto, gravimetria e perfilagem de poço. Nas imagens LANDSAT TM demarcou-se as concentrações de lineamentos junto as principais estruturas regionais e delimitou-se quatro domínios estruturais de acordo com a orientação dos trends dos lineamentos estruturais. Os perfis de poços que abrangem as formações Guaritas e Bom Jardim evidenciam eventos tectônicos com deformação rúptil e dúctil-ruptil, estabelecendo-se diferentes fácies tectonoestratigráficas de seqüências deposicionais (ambiente deltáico) e sequência deformacionais. Nos poços observa-se a variação da densidade com a profundidade entre poços, indicando a presença de duas aloformações de compactação distintas. Com base nos dados gravimétricos locais e regionais pode-se delimitar anomalias gravimétricas do embasamento, pacotes sedimentares de espessuras distintas em subsuperfície, com espessamento para NE, como também valores diferenciados para as principais unidades sedimentares da região estudada, bem como uma compartimentação escalonada da bacia do Camaquã. Ferramentas computacionais complementam a análise gravimétrica e de perfilagem geofísica, possibilitando a integração das técnicas já relacionadas e a formatação de dois perfis esquemáticos EW e SW-NE da bacia. Estes perfis auxiliam na visualização dos limites estruturais e formato da bacia, trazendo importantes informações para o modelo geológico da Bacia do Camaquã.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chlamydia trachomatis é o agente causal de uma das infecções sexualmente transmissíveis (IST) mais prevalentes da atualidade. Os maiores problemas no controle desta IST estão no caráter assintomático da infecção e no seu difícil diagnóstico laboratorial. Com o advento dos testes moleculares, grandes avanços ocorreram na área do diagnóstico laboratorial da infecção clamidial. O presente trabalho teve por objetivo desenvolver um método de detecção de C. trachomatis por PCR a partir de amostras cérvico-vaginais. A seqüência alvo escolhida para amplificação consiste de um segmento da ORF 4 do plasmídio críptico de ocorrência natural nesta bactéria. Noventa e duas amostras cérvico-vaginais foram submetidas ao protocolo de PCR in house proposto. Os produtos de PCR foram detectados por visualização direta após eletroforese em gel de agarose com brometo de etídio e por exposição radiográfica após hibridização com sonda homóloga. As amostras foram testadas paralelamente pelo método de captura híbrida para detecção de C. trachomatis. O kit COBAS Amplicor (Roche) foi utilizado para resolver resultados discrepantes. A seqüência do fragmento de 201pb foi confirmada por clivagem enzimática e por seqüenciamento. O teste de especificidade dos primers confirmou especificidade dos mesmos frente ao DNA de diferentes agentes patogênicos e da flora normal feminina. Do total de amostras analisadas, 50 foram positivas por captura híbrida, 51 foram positivas por PCR in house e 67 positivaram após hibridização.O teste de McNemar indicou haver concordância entre os métodos analisados dois a dois (P<0,001). Verificou-se concordância moderada nos comparativos entre captura híbrida e PCR (valor de Kappa: 0,45; DP 0,093), captura híbrida e hibridização (valor de kappa: 0,389; DP 0,091) e, PCR e hibridização (valor de Kappa: 0,634: DP 0,077). O método de PCR in house proposto para a detecção de C. trachomatis é uma técnica rápida e de baixo custo para o diagnóstico, controle e monitoramento dos casos da infecção. Estudos complementares, no entanto, são necessários para implementação deste teste em laboratórios da rede pública.