944 resultados para Extração semi-automática
Resumo:
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.
Resumo:
Desenvolveu-se uma metodologia que dispensa a dissolução completa da amostra para determinar Hg em solos, sedimentos fluvial e marinho. O Hg é quantitativamente extraído do sedimento marinho usando-se HNO3 30% (v/v), ultra-som (120 s, 70 W) e granulometria ≤ 120 µm. Condições similares são eficientes para sedimento fluvial e solo, exceto o tempo de sonicação (180 s) e a adição de KCl 0,15% (m/v). As suspensões sonicadas são centrifugadas e o Hg é determinado no sobrenadante por FI-CV AAS. A validação da metodologia foi feita com CRMs: PACS-2, MESS-3 (NRCC); Buffalo River (NIST 8704), Montana Soil (NIST 2710) e RS-3 (não certificada). Os parâmetros de mérito do método são: massa característica de 25 pg; LD (3s) de 0,2 µg l–1; LQ (10s) de 0,012 µg g–1 (800 µl de solução obtida de 1 g de amostra em 20 ml de suspensão). Aplicou-se a metodologia à análise de amostras reais (solo, sedimentos fluvial e marinho), as quais também foram preparadas com digestão ácida (85 °C durante 3 h) em mistura oxidante (K2S2O8 1 a 2% (m/v) e HNO3 30% (v/v)). Concentrações concordantes foram obtidas. Utilizou-se calibração externa e, quando necessário, ajuste de matriz com KCl ou K2S2O8. Para investigar a extração de Hg orgânico utilizando ultra-som, adicionou-se MeHg aos CRMs. Aproximadamente 5% do MeHg adicionado transformam-se em Hg2+ pelo método proposto, enquanto que chega a 100% quando a amostra é digerida. Assim, propõe-se uma especiação química semiquantitativa entre Hg inorgânico e orgânico, pois o Hg orgânico pode ser obtido pela diferença entre Hg total (determinado pela digestão) e Hg inorgânico (determinado pelo método proposto).
Resumo:
O presente estudo analisa a desigualdade entre os municípios brasileiros com enfoque nas políticas públicas descentralizadas e as mudanças institucionais após a Constituição de 1988. Para isso faz-se uma discussão do federalismo brasileiro e da cooperação intergovernamental, imprescindível para implementação de políticas com responsabilidades compartilhadas entre os entes federativos. A situação e o resultado destas políticas são ilustrados e complementados a partir da análise de quatro cidades no semi-árido paraibano que apresentam diferentes resultados nas variáveis analisadas, sendo elas o Programa Bolsa Família, as políticas governamentais de saúde e educação, a capacidade governamental (política e burocrática) e o associativismo. Por meio do aprofundamento nos casos procura-se também identificar as raízes institucionais da pobreza e desigualdade na região e argumentar sobre a importância de iniciativas empreendidas no sentido de aprimorar a cooperação entre as esferas de governo e de criar incentivos que catalisem as iniciativas associativas tanto governamentais quanto da sociedade civil.
Resumo:
Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.
Resumo:
O presente trabalho relata um estudo sobre a aplicação de duas metodologias diferentes do processo ensino-aprendizagem da disciplina Estatística no curso de Formação de Psicologia da Faculdade de Humanidades Pedro II. O estudo empírico realizou-se no primeiro semestre letivo de 1984. Utilizou-se um plano de pesquisa quase-experimental, com o modelo pré-teste/pós-teste. Formaram-se dois grupos intactos. O primeiro grupo constava de 64 sujeitos e o segundo de 66 sujeitos. Foram aplicadas, respectivamente, a metodologia Renovadora, que tinha por objetivo a aprendizagem através da compreensão e da aplicabilidade de conceitos e princípios estatísticos, e a metodologia Tradicional que implicava na aprendizagem por memorização dos princípios e automatização na execução dos cálculos. Os resultados do tratamento estatístico, considerando-se o nível de significância de 0,05, evidenciou não haver diferença estatisticamente significativa entre as duas metodologias de ensino da disciplina Estatística, tanto no que se refere à atitude quanto no que se refere ao aproveitamento.
Resumo:
O exame de sangue é um dos procedimentos de análises clínicos mais utilizados pelo largo espectro de anomalias que consegue detectar. A contagem de células de sangue, objeto deste trabalho, é um destes exames. A contagem manual é feita por um operador que examina ao microscópio, com ampliação adequada, uma amostra eventualmente tratada ou colorida. Ainda hoje há casos em que contagem manual é necessária mas é cada vez mais freqüente a utilização da contagem automática, feita através de citômetro de fluxo. Esta dissertação aborda um sistema de contagem de células do sangue por processamento digital de imagens e pode ser automático ou semi-automático. O projeto é fruto de uma parceria entre o LaPSIDELET e o HCPA. Deste projeto surgiu o SAIMO (Sistema de Aquisição de Imagens para uso em Microscopia Óptica). No estágio atual o SAIMO possui algumas limitações no controle de posicionamento e no campo de visão limitado. O controle de posicionamento atual fica a cargo do operador: não há informação sobre as imagens já adquiridas, podendo ocorrer sobreposição. Devido à limitação do campo de visão, várias aquisições devem ser feitas para se obter o número mínimo de células recomendado. Além disso, há um possível aumento de erro de contagem associado às imagens parciais de célula presentes nas bordas das imagens. Este trabalho tem como proposta solucionar o problema de controle de posicionamento das aquisições, com a localização da cena durante a captura da imagem. Além disso, é proposta uma técnica de composição de mosaico com as imagens adquiridas, reduzindo os problemas causados pelo campo de visão limitado. Também são propostos métodos de préprocessamento apropriados às imagens adquiridas, que proporcionam a redução do tempo das tarefas subseqüentes. O método de validação das localizações verifica se as coordenadas encontradas por este processo são consistentes. Os resultados obtidos mostraram que o método é rápido na localização e eficiente na composição do mosaico, podendo ser utilizado como parte de um sistema de contagem de células por processamento digital de imagens.
Resumo:
Realizou-se a dedução de um formalismo básico, útil para o desenvolvimento de novas implementações semi-empíricas, partindo de primeiros princípios. A abordagem utilizada é inspirada nos métodos da família HAM, e visa possibilitar o desenvolvimento de uma implementação semi-empírica de última geração que não esteja sujeita às di culdades que ocorrem com métodos da família ZDO. São apresentadas as expressões para a energia total e para os elementos da matriz de Fock segundo este formalismo básico. O emprego de expoentes variáveis nas funções de base (orbitais atômicos) é proposto e modelado com esquemas tipo HAM/3, HAM/4 e polinomial, tomando-se como referência resultados obtidos por cálculo ab initio. Além disso, uma contribuição para produção de conjuntos de dados de referência por cálculo ab initio é fornecida. Esta contribuição permite que sejam produzidos resultados de alto nível para energias eletrônicas a um custo computacional moderado, por meio da extrapola- ção da energia de correlação eletrônica em cálculos com bases correlation consistent de Dunning.
Resumo:
O presente estudo tem por objetivo realizar um diagnóstico da capacidade de gestão pública local dos municípios dependentes da atividade de extração mineral em Minas Gerais, a fim de avaliar seu nível de qualificação, identificar limitações ao fortalecimento institucional da gestão e investigar como a gestão municipal tem evoluído a partir do recebimento dos recursos da Compensação Financeira pela Exploração de Recursos Minerais (CFEM). A variável “capacidade de gestão” foi operacionalizada a partir da metodologia “Government Performance Project” (GPP), que propõe cinco dimensões de análise, a saber: gestão financeira, gestão de capital, gestão de pessoas, gestão de tecnologia da informação e gestão por resultados. Busca-se responder às seguintes questões: nas cidades mineiras dependentes economicamente da atividade de extração mineral, o poder público municipal demonstra capacidade de gestão adequada no desempenho de sua função? O recebimento dos recursos extras tem propiciado a melhoria da qualidade de gestão municipal? Para o desenvolvimento do estudo, realizou-se um estudo de casos múltiplos, tendo sido selecionados três municípios mineiros dependentes há vários anos da atividade de extração mineral: Mariana, Catas Altas e São Gonçalo do Rio Abaixo. Foram realizadas entrevistas semiestruturadas com técnicos, secretários municipais, prefeitos e cidadãos, buscando investigar a capacidade de gestão do poder público local nessas cidades. Embora os três municípios apresentem características comuns, como dependência da atividade mineral, proximidade territorial, contexto econômico e níveis de arrecadação elevados, nota-se que tais municípios representam três realidades diferentes, com níveis de desenvolvimento distintos. Foi possível identificar que os municípios estudados, sobretudo Catas Altas e São Gonçalo do Rio Abaixo, adotam boas práticas na gestão municipal. O município de Mariana apresentou recentemente boas iniciativas de mudança na gestão, entretanto, as mudanças políticas têm impedido que estas sejam concretizadas. Além das dimensões de análise do GPP, foi possível identificar outros fatores relevantes para o fortalecimento institucional da gestão, tais como, planejamento, perfil do gestor e contexto político. Verificou-se ainda que os impactos da mineração não se restringem à cidade mineradora, mas também às cidades localizadas no entorno da mina.
Resumo:
Este trabalho visa o uso da função de Green de valor inicial no ajuste geostrófico e do método Semi-Lagrangeano na integração de um modelo acoplado oceano-atmosfera descrito pelas equações de águas rasas. O ajuste geostrófico é considerado atravées de perturbações na pressão e do vento. No caso de sistemas sem rotação, é discutida a relação da equação hidrostática com ondas longas não-dispersivas. Com rotação, a conservação da vorticidade potencial permite escolher a elevação correspondente a um estado de equilíbrio geostrófico. O sistema de equações de águas rasas é desacoplado em equações de Klein-Gordon com valores iniciais e termos não-homogêneos acoplados. A resposta dinâmica formada pela resposta transiente e a resposta forçada é obtida para uma perturbação inicial da elevação. A ação do vento como forçante nas equações de momento 2D, através do transporte de Eckman, conduz a uma equação de águas rasas forçada. Uma decomposição da resposta forçada é realizada com uma resposta permanente, que satisfaz a equação de Helmholtz , e com o uso da base dinâmica gerada pela resposta impulso. Um modelo hidrodinâmico 3D introduzido por Casulli e governado por equações não-lineares de águas rasas é integrado na vertical para a obtenção de um modelo 2D. Com isto, as condições de contorno devido a tensão do vento e a fricção devido a topografia do fundo, transformam-se em forçantes do modelo. O modelo foi integrado com um método semi-implícito em diferenças finitas, utilizando-se o método Semi-Lagrangeano para a parte advectiva. Simulações simbólicas foram realizadas para o ajuste geostrófico devido a perturbações de duração infinita e finita para a elevação e para o efeito da tensão do vento. Foram realizadas simulações numéricas para variadas geometrias, em particular a Baia de Guanabara e a Lagoa do Patos.
Resumo:
In this paper, we propose a class of ACD-type models that accommodates overdispersion, intermittent dynamics, multiple regimes, and sign and size asymmetries in financial durations. In particular, our functional coefficient autoregressive conditional duration (FC-ACD) model relies on a smooth-transition autoregressive specification. The motivation lies on the fact that the latter yields a universal approximation if one lets the number of regimes grows without bound. After establishing that the sufficient conditions for strict stationarity do not exclude explosive regimes, we address model identifiability as well as the existence, consistency, and asymptotic normality of the quasi-maximum likelihood (QML) estimator for the FC-ACD model with a fixed number of regimes. In addition, we also discuss how to consistently estimate using a sieve approach a semiparametric variant of the FC-ACD model that takes the number of regimes to infinity. An empirical illustration indicates that our functional coefficient model is flexible enough to model IBM price durations.
Resumo:
This paper has the purpose of analyzing the role of civil society in funding and providing nfrastructure projects in developing countries. Considering that local associations around the world have been directly engaged on some infrastructure projects – some scholars define it as “semi-formal finance” –, the intention is to demonstrate that the experiences on such arrangements in developing countries have been responsible for fostering infrastructure investments in the poorer regions where the government is more absent. Based upon legal, economic and social aspects, this paper aims to contribute to a broader debate for the development of infrastructure in emerging countries. The conclusion is that, under a more social approach, the legal and economic mechanisms in developing countries are able to consider such arrangements in the benefit of their development.
Resumo:
Este trabalho explora um importante conceito desenvolvido por Breeden & Litzenberger para extrair informações contidas nas opções de juros no mercado brasileiro (Opção Sobre IDI), no âmbito da Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBOVESPA) dias antes e após a decisão do COPOM sobre a taxa Selic. O método consiste em determinar a distribuição de probabilidade através dos preços das opções sobre IDI, após o cálculo da superfície de volatilidade implícita, utilizando duas técnicas difundidas no mercado: Interpolação Cúbica (Spline Cubic) e Modelo de Black (1976). Serão analisados os quatro primeiros momentos da distribuição: valor esperado, variância, assimetria e curtose, assim como suas respectivas variações.
Resumo:
É senso comum que o texto escrito é uma importante forma de registrar as informações e que atualmente grande parte desse conteúdo informacional está disponível em meio digital. Entretanto, de maneira geral, os computadores lidam com o texto como sendo uma cadeia de caracteres que não têm nenhum significado. A área de Processamento de Linguagem Natural (PLN) vem se empenhando em extrair significados do texto. Nesse sentido este trabalho apresenta uma revisão desse tema e propõe um método automatizado que utiliza uma heurística determinística denominada Heudet que visa extrair bigramas do texto. A meta é extrair o significado do texto através de um conjunto de expressões multipalavras identificadas. Os resultados obtidos foram melhores se comparados com aqueles que utilizam-se das técnicas de medidas de associação estatística obtidas pelo software Ngram Statistics Package (NSP).
Resumo:
A presente dissertação investiga a utilização de medidas como a adesão automática pela regulação da previdência complementar fechada a partir da flexibilização do conceito de racionalidade, tendo como base a Análise Econômica e Comportamental do Direito. Inicia-se o trabalho pela evolução histórica da regulação da previdência no Brasil, avaliando os impactos sistêmicos das alterações ocorridas no primeiro pilar previdenciário (regimes básicos). Em virtude dessas alterações e do crescimento da relevância do segundo pilar de previdência social (Previdência Complementar Fechada) para a manutenção do bem-estar, analisa-se a possibilidade de ocorrência de vieses cognitivos que implicam desvios de racionalidade dos indivíduos nas decisões relativas à previdência complementar. Esses vieses cognitivos podem fazer com que indivíduos escolham alternativas que não maximizam seu bem-estar, por razões como inércia, procrastinação e superotimismo, ao contrário do que aponta o pressuposto de racionalidade da Economia Neoclássica. Os resultados analisados conduzem à necessidade de adoção de medidas regulatórias capazes de mitigar esses desvios de racionalidade, na forma de adoção de arquitetura de escolhas que induzam à maximização do bem-estar individual, sem limitar a liberdade individual dos envolvidos. Essas medidas, entretanto, especialmente a adesão automática aos planos de benefícios, destinam-se à mitigação de vieses cognitivos, sendo criticável sua adoção em planos de previdência onde observa-se predominância de outras razões para baixos níveis de adesão, como desconfiança em relação à gestão do plano. Ademais, faz-se necessário respeitar certos critérios para sua implementação, a fim de garantir que esse instrumento somente seja utilizado quando se observar vieses cognitivos que prejudiquem significativamente o bem-estar, bem como que a opção à qual os indivíduos estão sendo induzidos é vantajosa, ao menos na grande maioria das vezes. Ao final, verifica-se a juridicidade dessas medidas, à luz da proporcionalidade, norma que permite identificar os limites para a intensidade regulatória.