462 resultados para Acurácia Posicional
Resumo:
Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.
Resumo:
A cintilografia com radioisótopos em repouso tem despertado muito interesse nos últimos anos para pesquisa da viabilidade miocárdica na disfunção isquêmica avançada do VE, porque esta pode ser reversível e porque há melhora prognóstica neste contexto. O objetivo desse trabalho é buscar identificar a acurácia da cintilografia tomográfica Tc-99m-Sestamibi, sob a infusão de dobutamina em baixa dose. Foram protocolados trinta pacientes que sofreram um infarto do miocárdio com padrão “Q”, com dissinergia ao ecocardiograma, e submetidos a estudos perfusionais em dias diferentes, com Tc-99m-Sestamibi − dobutamina e Tl-201 em repouso-redistribuição 4 horas, usado como padrão ouro. Não ocorreram complicações com nenhum paciente submetido ao protocolo do estudo. Os resultados revelaram: sensibilidade = 85%, especificidade = 87%, valor preditivo positivo = 96%, valor preditivo negativo = 65 % e acurácia de = 85,2%. A razão de probabilidade positiva foi de 6,68 e a razão de probabilidade negativa de 0,17. Confrontando-se nossos dados com uma metanálise de resultados para o Tc-99m-Sestamibi em repouso, a sensibilidade no presente estudo foi 85% vs. 81% e a especificidade de 87% vs. 60%. Em relação aos dados da literatura para Tl-201: 85% vs. 90% e 87% vs. 54%, sensibilidade e especificidade, respectivamente. Em conclusão, o Tc-99m-Sestamibi sob a infusão de dobutamina parece ser um método promissor para detectar viabilidade superior a esta modalidade de cintilografia em repouso, com valores preditivos comparáveis à literatura disponível para esse mesmo método: 85,2% vs. 87%, 96% vs. 90% e 65% vs. 83%, para acurácia, valor preditivo positivo e valor preditivo negativo, respectivamente.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
A ultra-sonografia obstétrica é um método diagnóstico tradicionalmente utilizado na rotina do atendimento pré-natal, tendo sido estudados de forma ampla suas vantagens e limitações. O advento do diagnóstico intra-uterino de cardiopatias congênitas e de arritmias através da ecocardiografia fetal modificou completamente o prognóstico perinatal dessas afecções, por permitir planejar o adequado manejo cardiológico no período neonatal imediato e, em algumas situações, o tratamento e sua resolução in utero. Sendo muito elevada a prevalência de cardiopatias congênitas durante a vida fetal, sua detecção torna-se fundamental. Considerando a inviabilidade operacional de realizar rotineiramente ecocardiografia fetal em todas as gestações, levando-se em conta as condições locais do sistema de saúde, o encaminhamento para exame por especialista passa a ser otimizado com a possibilidade da suspeita de alterações estruturais ou funcionais do coração e do sistema circulatório durante o exame ultra-sonográfico obstétrico de rotina. Não são conhecidos, em nosso meio, dados que avaliem de forma sistemática a acurácia da ultra-sonografia obstétrica no que se refere à suspeita pré-natal de cardiopatias. A partir deste questionamento, este trabalho foi delineado com o objetivo de avaliar o papel da ultra-sonografia obstétrica de rotina na suspeita pré-natal de cardiopatias congênitas ou arritmias graves e os fatores envolvidos na sua efetividade. A amostra foi constituída de 77 neonatos ou lactentes internados no Instituto de Cardiologia do Rio Grande do Sul / Fundação Universitária de Cardiologia (IC/FUC) no período de maio a outubro de 2000, com diagnóstico pós-natal confirmado de cardiopatia estrutural ou arritmia grave, que tenham sido submetidos, durante a vida fetal, a pelo menos uma ultra-sonografia obstétrica após a 18a semana de gestação. Para a coleta de dados, foi utilizado um questionário padronizado, respondido pelos pais ou responsáveis, após consentimento informado. As variáveis categóricas foram comparadas pelo teste do qui-quadrado ou pelo teste de Fisher, com um alfa crítico de 0,05. Um modelo de regressão logística foi utilizado para determinar variáveis independentes eventualmente envolvidas na suspeita pré-natal de cardiopatia. Em 19 pacientes (24,7%), a ultra-sonografia obstétrica foi capaz de levantar suspeita de anormalidades estruturais ou de arritmias. Ao serem consideradas apenas as cardiopatias congênitas, esta prevalência foi de 19,2% (14/73). Em 73,7% destes, as cardiopatias suspeitadas eram acessíveis ao corte de 4-câmaras isolado. Observou-se que 26,3% das crianças com suspeita pré-natal de cardiopatia apresentaram arritmias durante o estudo ecográfico, enquanto apenas 3,4% dos pacientes sem suspeita pré-natal apresentaram alterações do ritmo (P=0,009). Constituiram-se em fatores comparativos significantes entre o grupo com suspeita pré-natal e o sem suspeita a paridade (P=0,029), o parto cesáreo (P=0,006), a internação em unidade de tratamento intensivo (P=0,046) e a escolaridade paterna (P=0,014). Não se mostraram significativos o número de gestações, a história de abortos prévios, o estado civil, o sexo dos pacientes, o tipo de serviço e a localidade em que foram realizados o pré-natal e a ultra-sonografia obstétrica, a indicação da ecografia, o número de ultra-sonografias realizadas, a renda familiar e a escolaridade materna. À análise multivariada, apenas a presença de alteração do ritmo cardíaco durante a ultra-sonografia obstétrica mostrou-se como variável independente associada à suspeita pré-natal de anormalidade cardíaca. Este trabalho demonstra que a ultra-sonografia obstétrica de rotina ainda tem sido subutilizada no rastreamento pré-natal de cardiopatias congênitas, levantando a suspeita de anormalidades estruturais em apenas um quinto dos casos. Considerando a importância prognóstica do diagnóstico intra-uterino de cardiopatias congênitas e arritmias graves, todos os esforços devem ser mobilizados no sentido de aumentar a eficácia da ecografia obstétrica de rotina para a suspeita de anormalidades cardíacas fetais. O treinamento dirigido dos ultra-sonografistas e a conscientização do meio obstétrico e da própria população são instrumentos para esta ação.
Resumo:
A indução de escarro é uma técnica utilizada amplamente para monitorar a inflamação de vias aéreas, porém sua importância como ferramenta diagnóstica de doenças pulmonares em pacientes imunocomprometidos ainda necessita de melhor definição. Com o objetivo de determinar o seu rendimento no diagnóstico das doenças pulmonares em pacientes positivos ao HIV, no período de janeiro de 2001 a setembro de 2002, foram avaliados todos os pacientes com idade superior a 14 anos, infectados com o vírus da imunodeficiência humana, admitidos no Hospital Nereu Ramos (Florianópolis – Santa Catarina – Brasil). Foram incluídos no estudo aqueles indivíduos que apresentavam manifestações clínicas do aparelho respiratório há pelo menos 7 dias, associadas, ou não, a sinais radiológicos de doença pulmonar. Também foram incluídos indivíduos assintomáticos do ponto de vista respiratório, mas que apresentavam alterações no radiograma de tórax. Todos os pacientes foram submetidos à avaliação clínica, radiológica e laboratorial e realizaram a indução de escarro, seguida pela broncofibroscopia, lavado broncoalveolar e biópsia pulmonar transbrônquica. As amostras obtidas foram processadas para bacterioscopia pelo método de Gram e Ziehl-Neelsen, cultura quantitativa para bactérias, exame micológico direto, cultura para micobactérias e fungos, pesquisa de citomegalovírus e Pneumocystis jiroveci, bem como celularidade total e diferencial. De um total de 547 pacientes, 54 com idade média de 35,7 anos foram incluídos no estudo. Destes, 79,6% pertencentes ao sexo masculino e 85,2% caucasianos. A contagem média de linfócitos TCD4+ foi de 124,8/mm3. O padrão radiológico mais comum foi o intersticial (44,4%). A pesquisa de agente etiológico resultou negativa em 7 pacientes, sendo que nos 47 casos restantes foram isolados 60 agentes. Dentre os agentes isolados, 46,7% foram P. jiroveci; 33,5% bactérias piogênicas e 16,7% M. tuberculosis. O escarro induzido apresentou sensibilidade de 57,5%, especificidade de 42,9%, valor preditivo positivo de 87,1%, valor preditivo negativo de 13,0% e acurácia de 55,6%. Estes resultados sugerem que, nesta população, a análise do escarro induzido é um procedimento simples, seguro e com bom rendimento diagnóstico.
Resumo:
Um dos principais desafios para o século XXI é o uso sustentável dos recursos hídricos. A agricultura é a maior usuária desse recurso, sendo responsável por aproximadamente 70% dos gastos globais de água. Para o uso racional da água é necessário o conhecimento das propriedades hidráulicas do solo na condição de não-saturação. A simulação do movimento da água no solo através da modelagem é uma ferramenta importante no entendimento do sistema solo-água-planta, pois permite a previsão e estudo do comportamento da redistribuição da água no solo de maneira eficiente. Porém a forte dependência entre os parâmetros hidráulicos do solo (teor de água, potencial matricial e condutividade hidráulica) fazem da modelagem um assunto complicado, necessitando de modelos numéricos que utilizem intervalos discretos de tempo e espaço. Esses intervalos devem ser suficientemente pequenos para que dentro de um intervalo as variações dos parâmetros hidráulicos sejam insignificantes. Nesta tese é proposto um algoritmo para a descrição do movimento vertical da água no solo, definindo o intervalo de tempo como função de uma variação máxima admissível do teor de água. O algoritmo foi testado para alguns conjuntos de dados hidráulicos de solos, utilizando as condições de contorno de um experimento de perfil instantâneo. A eficiência do algoritmo foi verificada em situações práticas, como na previsão do teor de água na Capacidade de Campo e na predição do tempo para ser atingida determinada condição de umidade no solo. Utilizando o algoritmo, também foram estudados o comportamento da retenção e dos parâmetros de condutividade em relação aos parâmetros de drenagem. Concluiu-se que o algoritmo descreve adequadamente o processo de redistribuição de água no solo utilizando intervalos suficientemente pequenos de tempo e espaço; a forma de discretização do tempo não comprometeu a acurácia das medidas; a previsão do teor de água na Capacidade de Campo e do tempo para ser atingida determinada condição de umidade no solo foram satisfatórias; e o algoritmo permite o estudo das relações entre os parâmetros hidráulicos do solo.
Resumo:
Introdução A mastocitose abrange um grupo heterogêneo de condições crônicas caracterizado pela proliferação excessiva de mastócitos nos tecidos. Os sinais e sintomas clínicos são decorrentes da distribuição anatômica dos mastócitos e do efeito funcional dos mediadores produzidos e liberados por estas células. Na infância, a doença é considerada uma condição benigna na maioria dos casos, cujo comprometimento característico é o cutâneo. As mais freqüentes manifestações na pele são os mastocitomas e a urticária pigmentosa. Lesões cutâneas bolhosas podem manifestar-se e acompanhar todas as formas de mastocitose e quando esta apresentação é a predominante, é denominada de mastocitose bolhosa. O diagnóstico de mastocitose é suspeitado clinicamente e confirmado pela histologia. A demonstração do aumento do número de mastócitos nas lesões cutâneas características se constitui no principal critério diagnóstico. Contudo, este método tem dificuldades técnicas que impedem a adequada reprodutibilidade dos achados, dificultando a elucidação de casos duvidosos e retardando seu tratamento. Considerando as propriedades imunológicas e a importância clínica dos mastócitos reveste-se de maior importância compreender o papel destas células nas doenças, sendo indispensável identificá-las e enumerá-las com acurácia nos tecidos. Objetivos Quantificar o número de mastócitos marcados com anticorpo monoclonal antitriptase, através de técnica imuno-histoquímica e análise de imagem, em biópsias cutâneas de crianças, com diagnóstico clínico de mastocitose. Descrever os achados histológicos; quantificar o número de mastócitos marcados com o anticorpo antitriptase entre as diferentes expressões clínicas da mastocitose cutânea; comparar o número de mastócitos entre os casos de mastocitose cutânea e mastocitose associada à sintomas sistêmicos e correlacionar as contagens de mastócitos entre os dois diferentes métodos (coloração por Giemsa com contagem manual e marcação com anticorpo antitriptase e análise digital). Material e Método Foram incluídas no estudo biópsias cutâneas de crianças de 0 a 14 anos, com diagnóstico clínico e histológico de mastocitose. Os casos foram classificados de acordo com a apresentação clínica cutânea em mastocitoma, urticária pigmentosa ou mastocitose bolhosa e assinalada a presença de sintomas sistêmicos associados. Os fragmentos de pele fixados em formalina e emblocados em parafina foram cortados e utilizados para diagnóstico histopatológico convencional, corados com hematoxilina-eosina e Giemsa, e para análise imuno-histoquímica com estreptavidina peroxidase marcados com anticorpo antitriptase. A densidade de mastócitos (número de células por área) foi realizada por um único observador na técnica histológica e através de um sistema de análise de imagem de vídeo no método imuno-histoquímico. Resultados Foram avaliados 33 casos de mastocitose, sendo 21 do sexo masculino. Dez casos (30,3%) apresentavam mastocitoma, 21 (63,6%) urticária pigmentosa e 2 (6,1%) mastocitose bolhosa. Todos os casos da amostra foram classificados como tendo mastocitose incipiente e em 6 (18,8%) pacientes pôde ser identificada a associação com sintomas sistêmicos. Prurido foi o sintoma mais freqüente, sendo relatado em 21 casos. Em 21 dos 33 casos foi identificada a infiltração de mastócitos na derme havendo predominância pela região perivascular (p=0,001, teste exato de Fisher). Não houve diferenças significativas entre a presença de infiltrado mastocitário e as várias formas cutâneas de mastocitose ou a mastocitose sistêmica. A presença de eosinófilos foi identificada em 15 casos (45,5%) e em 10 casos associadamente ao infiltrado perivascular de mastócitos. A densidade de mastócitos na técnica histológica, incluindo-se todos os casos, foi 50,00 células/mm2. Não houve diferença significativa das contagens entre os pacientes com mastocitoma e aqueles com urticária pigmentosa, assim como entre os pacientes com e sem sintomas sistêmicos associados aos cutâneos. A densidade de mastócitos encontrada com a técnica imuno-histoquímica e contagem por análise de imagem foi 158,85 células/mm2. Não houve diferença significativa das contagens entre os pacientes com mastocitoma e aqueles com urticária pigmentosa, assim como entre aqueles com e sem sintomas sistêmicos. Comparando-se a contagem dos mastócitos por área (densidade) entre a histologia e a imuno-histoquímica houve uma diferença significativa (p=0,0001 teste não-paramétrico de Wilcoxon). A média da diferença entre as contagens foi 199,98 células/mm2 (±365,31 DP). Também não houve semelhança, entre os dois métodos, nos grupos mastocitoma e urticária pigmentosa (p=0,005 e p=0,01, respectivamente, teste não-paramétrico de Wilcoxon). Puderam ser identificados 518% a mais de mastócitos com a técnica imunohistoquímica quando comparada com a histológica. Conclusões O presente estudo permite concluir que: 1) a localização preferencial da infiltração de mastócitos é dérmica e perivascular, não sendo possível identificar diferenças histológicas entre casos de urticária pigmentosa e mastocitoma; 2) o número de mastócitos marcados com o anticorpo monoclonal antitriptase e contados com análise digital de imagem, em biópsia de pele de crianças com diagnóstico clínico de mastocitose, foi 159 células por milímetro quadrado; 3) a densidade de mastócitos, foi semelhante entre os casos de urticária pigmentosa e mastocitoma e entre os casos com e sem sintomas sistêmicos associados nas duas diferentes técnicas empregadas; 4) o número de mastócitos por milímetro quadrado com a técnica imuno-histoquímica e a contagem através de análise de imagem foi significativamente maior quando comparada com a coloração através de Giemsa e a contagem manual, com uma diferença média entre os dois métodos de 200 células por milímetro quadrado; 5) a densidade de mastócitos com a técnica imunohistoquímica foi significativamente maior tanto nos casos com urticária pigmentosa quanto nos com mastocitoma, quando comparada com a técnica empregada rotineiramente e 6) com a técnica imuno-histoquímica e a contagem através de análise de imagem foi possível identificar 518% a mais de mastócitos quando comparada com a técnica histológica.
Resumo:
Entre as doenças causadas por bactérias do gênero Mycobacterium, a tuberculose por M. tuberculosis é a mais conhecida. O diagnóstico da doença é feito utilizando-se um conjunto de exames que possibilitam a identificação da mesma (WATT, 2000). Contudo, sabe-se que o diagnóstico combinado de microscopia direta e com o posterior isolamento em meio de cultivo é o “padrão-ouro”. A principal desvantagem desse método é que tal bactéria possui um crescimento lento (cerca de 8 semanas). Recentemente, a detecção de doenças através da técnica de reação em cadeia da polimerase (PCR) tem proporcionado avanços significativos no diagnóstico. O uso da amplificação específica de genes, para identificar a M. tuberculosis, tais como rDNA 16S, IS6110 ou a região intergênica senX3-regX3, tem apresentado algumas restrições, ao nível de confiabilidade e sensibilidade, para a aplicação da técnica de PCR. O presente estudo mostra a construção e a aplicação de um novo alvo para a aplicação da PCR no diagnóstico da tuberculose, baseado no ensaio da diferença de organização gênica do operon plcA, B e C diferenciando a M. tuberculosis das demais micobactérias. Neste trabalho, foram examinadas 273 amostras de pacientes com suspeita de tuberculose, sendo estas submetidas ao estudo comparativo da técnica de PCR versus cultivo (padrão ouro). A PCR amplificou fragmentos de 439pb. Os resultados mostram 93,7% de acurácia para PCR/Cultivo (p<000,1), 93,1% de sensibilidade com intervalo de confiança de 88,7-96,0 e especificidade de 96,4% com intervalo de confiança de 96,4-99,4. O valor da estatística Kappa (k) foi de 0,82 com erro padrão de 0,041, demonstrando um alinhamento quase perfeito para a verificação do grau de concordância entre os testes. Desta forma, o uso desta nova região para a amplificação da PCR se mostra uma importante e confiável ferramenta no diagnóstico específico da tuberculose. Outra região que compreende parte dos genes mbaA e inhA foi utilizada para diferenciar o Complexo tuberculosis do Complexo avium. Porém, novos experimentos serão necessários para o emprego desta região como uma ferramenta de diagnóstico.
Resumo:
O setor de telefonia móvel tem passado por um processo de inovação tecnológica. Estas inovações afetam as estratégias das empresas do setor, e estabelecem uma forte concorrência entre elas. Sendo assim, a presente pesquisa objetiva identificar e comparar as vantagens competitivas que estão sendo geradas para as operadoras de telefonia móvel nacionais, tendo como objeto, analisar suas operações no Estado do Rio Grande do Sul, a partir da opção tecnológica (GSM ou CDMA) de cada uma. Para tanto, a pesquisa teve duas fases: na primeira fase, partiu-se de um referencial teórico inicial, sendo feita logo após uma pesquisa junto a quatorze (14) experts no setor de telefonia móvel, e com base na análise de conteúdo destas entrevistas acrescentaram-se outros referenciais teóricos para constituir o que é chamado aqui de arcabouço teórico (tendo como principais eixos teóricos os temas Inovação Tecnológica, Estratégias Competitivas e Teoria dos Stakeholders) das principais categorias estratégicas do setor de telefonia móvel brasileiro; na segunda fase, a partir do arcabouço teórico construído na primeira fase, foram feitos dois estudos de caso (Empresa A e Empresa B), com operadoras de Telefonia Móvel de atuação nacional, que representam juntas 67% do market share nacional, tendo como objeto de análise suas operações no Estado do Rio Grande do Sul (uma que optou pela tecnologia GSM e outra que optou pela tecnologia CDMA). Para análise desta segunda fase foi utilizada a técnica de triangulação de dados aliada ao método descritivo-interpretativo, onde foram analisadas seis (6) entrevistas em cada uma das empresas estudadas, os dados secundário s coletados, e as observações realizadas nas próprias empresas e em uma feira de telefonia móvel nacional. Como resultados são apresentados três (3) tipos de vantagens competitivas para cada uma das duas empresas: gerais; derivadas da opção tecnológica (CDMA; GSM); derivadas da organização. Neste sentido destaca-se que foram encontradas em sua maioria vantagens competitivas que advêm da opção tecnológica que cada empresa realizou, ou seja, foi possível, qualitativamente, identificar uma relação onde as inovações tecnológicas (CDMA; GSM) conduziram a atributos de vantagem competitiva. Por fim é feita uma comparação entre as vantagens competitivas identificadas para cada uma das empresas, à luz de um referencial teórico, que permitiu distinguir os recursos, as capacidades e as competências de cada uma. Nesta comparação foram identificadas do ponto de vista teórico, dois tipos de vantagens competitivas para a Empresa A (Capacidade Posicional e Interação Estratégia e Tecnologia) e dois tipos de vantagens competitivas para a Empresa B (Controle de Custos e Interação Estratégia e Tecnologia), ressaltando-se que também na comparação, as vantagens competitivas encontradas, derivaram diretamente da opção tecnológica de cada empresa.
Resumo:
Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.
Resumo:
Pretende-se no presente trabalho avaliar a gestão do processo de negociação complexa da 5ª Conferência Ministerial da Organização Mundial do Comércio em Cancún, ocorrida entre os dias 10 e 14 de setembro de 2003, no México, apontando os problemas e questões que resultaram no colapso de um possível acordo. O futuro da OMC é incerto e mudanças traumáticas sofridas por muitos países que vivem sob as regras da OMC indicam que alguma coisa na OMC terá que mudar, principalmente nos processos de negociação complexa, de forma que a integridade da organização não seja comprometida. Buscou-se respostas na análise e avaliação da gestão do processo de negociação, estudando e pesquisando os conceitos de barganha posicional, detalhando o processo de negociação baseado em princípios, explorando em profundidade o estado da arte para gestão de conversas difíceis. Dissecando a questão dos conflitos e das coalizões, mostrando a dificuldade existente na resolução de disputas públicas e no uso de instrumentos para quebrar o impasse nas negociações buscou-se estabelecer o instrumental teórico que possibilitasse aprofundar o diagnóstico da situação atual na OMC. Como recomendação explorou-se a avaliação de conflitos, com base na eficiência - teoria dos jogos-, justiça e na eqüidade, a melhor forma de negociação baseada em princípios, de gestão de público demandante, no diálogo dos multistakeholders, a importância das conversas informais paralelas, o ambiente da complexidade e a visão ampla que proporciona o enfoque do funcionamento de sistemas decisórios autopoiéticos.
Resumo:
Esta dissertação apresenta um estudo sobre a aplicação de técnicas de previsão na arrecadação tributária. Buscou-se a aplicação das principais técnicas quantitativas de previsão a uma série temporal de arrecadação de ICMS – Imposto sobre operações relativas à circulação de mercadorias e sobre prestações de serviços de transporte interestadual, intermunicipal e de comunicação. Além disto, procurou-se estimular a discussão sobre a utilização de técnicas de previsão qualitativas como forma de melhorar a acurácia dos resultados obtidos com os modelos estatísticos de previsão. O método de trabalho proposto apresenta uma seqüência estruturada de passos para a realização da previsão de receitas tributárias. Baseado neste método de trabalho e no referencial teórico, realizou-se um estudo de caso a partir dos dados de arrecadação de ICMS no Estado do Paraná. Os modelos de previsão foram testados com séries de mais de 50 observações – consideradas mais adequadas para utilização da maioria dos modelos estatísticos – e com séries mais curtas, visando comparar o grau de acurácia de cada modelo.
Resumo:
Analisa e compara, sob as óticas de acurácia e custo, os principais métodos numéricos (simulação de Monte carlo, métodos de diferenças finitas, e modelos baseados em lattice para precificação de opções financeiras, exóticas e reais. Aponta as situações onde cada método deve ser empregado, e apresenta os algoritmos necessários para implementação dos métodos numéricos na prática.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.