940 resultados para métodos qualitativos e quantitativos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de preparo e sistemas de culturas podem afetar os atributos químicos do solo e, conseqüentemente, sua fertilidade. Com o objetivo de avaliar os efeitos destas práticas, foram analisadas amostras de solo coletadas de seis camadas (0-2,5, 2,5-5, 5-7,5, 7,5-12,5, 12,5-17,5 e 17,5-30 cm), no 13º ano de experimento de longa duração, instalado em 1985, em um Argissolo Vermelho distrófico, localizado na Estação Experimental Agronômica da UFRGS, em Eldorado do Sul, RS. O experimento constitui-se de três métodos de preparo (convencional-PC, reduzido-PR e plantio direto-PD), três sistemas de culturas (aveia/milho-A/M, vica/milho-V/M e aveia+vica/ milho+caupi-A+V/M+C) e duas doses de N mineral no milho (0 kg N ha-1 ano-1 e 180 kg N ha-1 ano-1 na forma de uréia). Houve aumento no estoque de carbono orgânico (CO) do solo no PD e PR quando associados com sistemas de culturas com maior aporte de resíduos vegetais ao solo. Os métodos de preparo sem revolvimento do solo apresentaram maior valor de CTC efetiva e a pH 7,0, em concordância com o teor de CO. Maiores teores de Ca, Mg e P foram determinados na camada superficial do solo (0-5 cm) em PD e PR, enquanto o solo em PC apresentou distribuição homogênea destes atributos na camada arável (0-17,5 cm). Sistemas de culturas que incluíram leguminosas, principalmente o sistema V/M, apresentaram menor valor de pH e maiores valores de Al trocável e saturação por alumínio. Em média, tratamentos com aplicação de N mineral apresentaram menores valores de pH e de saturação por bases e aumento da saturação por alumínio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução - A forma tradicional para se estudar a variação espacial de taxas é feita considerando a contagem do número de pessoas em cada área de um mapa em relação à população exposta, denominada taxa bruta. Entretanto, essa representação nem sempre é a melhor, principalmente na presença de população pequena. Objetivos - Utilizar métodos de Epidemiologia Espacial para representar a taxa de fecundidade específica em mulheres de 10 a 19 anos, utilizando como exemplo a cidade de Porto Alegre no ano de 2003 e investigar sua distribuição geográfica por meio de técnicas de Mapeamento de Eventos de Saúde. Métodos - Utilizando-se a base de dados do SINASC e o Censo do IBGE para o ano de 2000, considerando-se as divisões de bairro da cidade de Porto Alegre, construiu-se a taxa de fecundidade específica na adolescência. Métodos de suavização para controlar as flutuações aleatórias do risco foram usados, como o Estimador Bayesiano Empírico Local de Marshall e o Estimador Totalmente Bayesiano. Resultados - No ano de 2003 ocorreram 28 nascidos vivos por mil mulheres de 10 a 19 anos na cidade. Em alguns bairros, a representação bruta revelou valores quase três vezes maiores. Com os métodos de suavização, apresenta-se uma distribuição espacial subjacente mais real e taxas com menor heterogeneidade espacial. Alguns bairros com maiores taxas de maternidade na adolescência encontram-se em regiões com piores condições sócio-econômicas. Conclusões - O método Totalmente Bayesiano mostrou ser o melhor para estimar a variabilidade da taxa de fecundidade específica em mulheres de 10 a 19 anos nos bairros de Porto Alegre, principalmente nos locais onde a população exposta era muito pequena.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos radiométricos (Rb-Sr e Sm-Nd) têm sido aplicados, com sucesso, em rochas sedimentares visando a obtenção de idades deposicionais e informações sobre proveniência. Em muitos casos, apesar dos resultados geologicamente significativos, ainda persistem dúvidas em relação a extensão e interpretação dos dados obtidos. Isto ocorre porque as rochas sedimentares resultam da mistura de fragmentos detríticos de diversas proveniências com diferentes sistemas isotópicos, conseqüentemente, já contendo um registro isotópico da rocha fonte. No caso do método Rb-Sr, aplicado em rochas sedimentares de granulometria fina, pode-se obter idades absolutas para o evento deposicional. Isto é viável desde que este registro isotópico proveniente das rochas fonte seja apagado no momento da deposição, ou seja, deve ocorrer a homogeneização isotópica do Sr no ambiente sedimentar. Para tanto, devem ser observados alguns pré-requisitos em relação a amostragem, granulometria, ambiente deposicional e composição mineralógica das amostras, entre outros. No entanto, ainda existem questionamentos em relação a esta metodologia especialmente quanto à ocorrência e à extensão do processo de homogeneização isotópica do Sr em ambiente sedimentar.(Continua0 O método Sm-Nd, apesar de ser uma técnica relativamente nova quando aplicada a rochas sedimentares, tem se tornado uma ferramenta fundamental para auxílio na determinação de proveniência de rochas sedimentares. As maiores dificuldades estão na correta interpretação dos valores obtidos e sua associação com um ambiente sedimentar, ou seja, de baixa temperatura. Neste trabalho, foram aplicados os métodos radiométricos Rb-Sr e Sm-Nd em amostras de rochas sedimentares coletadas em diferentes contextos geológicos da Bacia do Paraná. Foram tentativamente testados os diferentes parâmetros que atuam no sentido da homogeneização isotópica do Sr e do comportamento do Nd. Os resultados obtidos permitiram aprimorar a metodologia radiométrica Rb-Sr e Sm-Nd quando aplicada em rochas sedimentares, bem como obter resultados sobre a idade deposicional de diferentes unidades sedimentares e, por vezes, sua proveniência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na década de 80, o sucesso das empresas japonesas tem atraído a atenção dos pesquisadores para o seu sistema de gestão e produção. Como resultado desses estudos, kaizen, a ideologia de melhoria contínua, e as ferramentas da qualidade foram difundidas nas empresas ao redor do mundo. Quase trinta anos depois, ainda há fortes evidências dessas formas de produção japonesa nas organizações. Como as firmas necessitam melhorar constantemente para criar ou, pelo menos, para não ficar para trás em um ambiente competitivo e em constante mudança, a melhoria contínua pode ser considerada uma das capabilities essenciais de uma organização; no entanto, a elevada taxa de insucesso das iniciativas de melhoria contínua fez com que essa capability seja difícil de ser alcançada. Considerando-se este fenômeno, a presente pesquisa, baseada nos trabalhos do Bessant et al (2001) e Peng et al (2008), teve como objetivo explorar a dinâmica de como essa capability, sob perspectiva das rotinas operacionais, se desenvolve nas organizações. A estratégia de pesquisa adotada é o estudo de casos múltiplos. Os casos foram compostos por um caso representativo de capability de melhoria contínua sustentada e outros dois, por, duas empresas que apresentaram evidências da capability estudada. Os dados foram coletados mediante visitas técnicas e entrevistas multi-hierárquicas. As análises de dados foram feitas via técnicas de análise de conteúdo empregando software Nvivo e conceitos de transformação de dados qualitativos/quantitativos sugeridos por Miles e Huberman (1994). Os resultados da análise indicaram quatro principais conclusões. Primeira, a capability de melhoria contínua, além das rotinas organizacionais de aprendizagem, das rotinas de liderança e processos padrões para detectar e resolver problema, deve incluir o fator "envolvimento dos funcionários" ao operacionalizar este construto de segunda ordem. Segunda, o desenvolvimento dessa capability segue o modelo evolutivo como sugerido por Bessant et al (2001); verificou-se que, no entanto, o desenvolvimento dos padrões comportamentais de cada estágio não segue a forma linear como preconizado por Bessant et al (2001). Terceira, a decisão de desenvolver determinado conjunto particular de padrões de comportamento no modelo evolutivo pode ser influenciada por variáveis contingenciais, tais como estrutura organizacional, tipo de processo e volume de produção. Finalmente, a definição da maturidade da capability de melhoria contínua é mais do que a presença de dados conjuntos de padrões de comportamento; deveria-se, também, levar em consideração a abrangência e extensão das rotinas e práticas desses padrões de comportamento, dado que a capability de melhoria contínua, por definição, são processos que envolvem a organização toda. Em resumo, o processo de desenvolvimento da capability de melhoria contínua parte do pressuposto de uma ideologia gerencial que preze o valor das pequenas mudanças, locais e incrementais, para as quais todos na organização possam contribuir. Dentro deste processo, os líderes devem estabelecer claramente os objetivos estratégicos de longo prazo para gerir as iniciativas de melhoria contínua e os recursos humanos serão revalorizados mediante delegação de autonomia, investimento em aprendizagem e incentivo à aprendizagem. As ferramentas da qualidade, a gestão da qualidade ou qualquer outro processo padronizado para detectar e resolver problemas são os meios de externalizar o conhecimento dos funcionários para a melhoria contínua, sendo assim, quanto mais os funcionários estiverem envolvidos, mais esta capability estará evidente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A avaliação da solicitação produzida por explosões, assim como da resposta de estruturas, são temas de muito interesse na engenharia atualmente, tanto pela quantidade crescente de acidentes relacionados com explosões quanto pelas ações terroristas muitas vezes vinculadas a estes tipos de ações. Neste contexto, o presente trabalho tem por objetivo explorar técnicas de análise tanto na modelagem da excitação quanto na resposta de estruturas consideradas como alvos. Para isto, são utilizadas metodologias de diferentes tipos: implementações baseadas em sistema de elementos finitos comerciais como Ansys [2000] e LS-Dyna [2003] e técnicas simplificativas que permitem realizar uma avaliação preliminar. As aplicações consideradas são indicadas a seguir: • Análise da Resposta de Estruturas Laminares Submetidas à Ação de Cargas Explosivas: determina-se a pressão produzida por explosivos sólidos a certa distância do epicentro, através de métodos simplificados, determinando a resposta esperada em placas retangulares; • Efeito da Pressão Interna em Vasos de Pressão (Extintores de Incêndio): comparando resultados numéricos e experimentais verifica-se a influência da pressão interna nas propriedades dinâmicas do sistema; • Estudo de Um Vaso Esférico de GLP Sob Ação de Uma Carga Explosiva: aplica-se a ação de uma onda explosiva produzida por um gás inflamável pesado sobre uma estrutura de vaso de pressão esférico com fluido e gás em seu interior, determinando sua resposta, avaliando também a influência de diferentes quantidades de líquido e pressão interna na resposta da estrutura; • Modelamento de uma Camada de Solo / Propagação das Ondas: verifica-se o comportamento da propagação de ondas em um meio elástico, comparando valores encontrados em testes experimentais. Analisa-se numericamente o efeito da inserção de uma valeta na atenuação de tais ondas; • Simulação Numérica Completa de uma Explosão: modela-se um semi-espaço submetido à ação de um explosivo sólido sobre sua superfície, avaliando os campos de pressão gerados. Ao final de cada aplicação são apresentadas conclusões parciais obtidas e as possibilidades de trabalhos futuros vislumbrados. Finalmente, conclui-se que as técnicas empregadas para as simulações são extremamente eficientes, considerando conhecidos todos os parâmetros envolvidos em cada modelo. Neste ponto é fundamental o trabalho do engenheiro, utilizando-se de seus conhecimentos técnicos para transformação do evento real em um modelo numérico, considerando e selecionando as simplificações necessárias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os objetivos deste estudo são (1) identificar quais são as imperfeições de mercado exploradas por empresas brasileiras de capital aberto e de alto desempenho contábil e (2) como essas imperfeições se configuram. DESIGN/METODOLOGIA/ABORDAGEM SUPORTE TEÓRICO: Teoria da Competição Perfeita, Teorias do Mercado Imperfeito e Teoria das Configurações Organizacionais. VARIÁVEIS: (1) dependente: desempenho contábil (lucro operacional/ativos de janeiro de 2005 a dezembro de 2009); (2) causais: imperfeições de mercado. DADOS: fontes secundárias: (1) quantitativos para a seleção das empresas de alto desempenho (base Economatica) e (2) qualitativos para identificação das configurações organizacionais (relatórios emitidos por Bancos e Corretoras de Valores). FERRAMENTAS DE ANÁLISE: (1) Análise Categorial de Conteúdo Semântico e (2) Análise Qualitativa Comparativa (Qualitative Comparative Analysis – QCA, modalidade MDSO- Most Different, Similar Outcome). SELEÇÃO DE CASOS E PERÍODO DE ANÁLISE: Empresas brasileiras de capital aberto com desempenho acima de um desvio padrão sobre a média da totalidade de empresas listadas na BM&FBovespa, excluídas as empresas do setor bancário e de administração de recursos. RESULTADOS: Os resultados da FASE 1 mostram que são cinco as imperfeições de mercado mais importantes para explicar o alto desempenho das empresas selecionadas. São elas: (1) LOCALIDADE (EMPRESA INTERNACIONALIZADA), (2) CRESCIMENTO DA DEMANDA, (3) TAMANHO, (4) RECURSOS (físicos, tecnológicos e qualidade) e (5) GOVERNO. Os resultados da FASE 2 revelam dois grandes conjuntos de configurações de imperfeições de mercado. No conjunto “mercado semi-livre”, a exploração de cinco imperfeições de mercado são compartilhadas: DIVERSIFICAÇÃO, RECURSOS, LOCALIDADE, CRESCIMENTO DA DEMANDA e SORTE. O outro conjunto é formado por empresas monopolistas ou oligopolistas de grande porte que compartilham a exploração de três imperfeições: CONCENTRAÇÃO, TAMANHO e TAMANHO DO GRUPO. Na intersecção dos dois conjuntos, encontram-se “as gigantes” que exploram comumente dez imperfeições: as três imperfeições do conjunto monopólios/oligopólios - CONCENTRAÇÃO, TAMANHO e TAMANHO DO GRUPO, as cinco imperfeições do conjunto do mercado semi-livre - DIVERSIFICAÇÃO, RECURSOS, LOCALIDADE, CRESCIMENTO DA DEMANDA e SORTE; além das imperfeições ACESSO PRIVILEGIADO A MATÉRIAS PRIMAS e INTEGRAÇÃO VERTICAL. Outras empresas que operam no mercado quase-livre aqui denominadas de “as exclusivas” compartilham a exploração das imperfeições DIFERENCIAÇÃO e o CRESCIMENTO ORGÂNICO, além das cinco compartilhadas pelo conjunto de empresas do mercado semi-livre. “As Concessões” exploram as três imperfeições de mercado do conjunto de empresas monopolistas/oligopolistas CONCENTRAÇÃO, TAMANHO E TAMANHO DO GRUPO, além do monopólio concedido pelo GOVERNO. ORIGINALIDADE: (1) Taxonomia sustentada por construtos paradigmáticos: imperfeições de mercado; (2) Uso de dados qualitativos obtidos pela Análise Categorial de Conteúdo Semântico; (3) Uso da metodologia QCA para reduzir variáveis e identificar configurações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o presente estudo discute o poder e contribuição de diferentes metodologias e estiLos de ação pedagógica nas mudanças cognitivas de adolescentes de Classe social baixa. Trata-se de um estudo de caso onde tomamos uma amostra de alunos dos cursos de aprendizagem para menores do Serviço Nacional de Aprendizagem Industrial (SENAI) da cidade do R-lo de Janeir'o~ comparados com alunos de· escolas acadêmicas de 1o e 2o graus. Os dados qualitativos mostram que a ação pedagógi ca das escolas acadêmicas analisadas está ~estruturada dentro de uma concepção genérica" difusa e indiferenciada. presa a modismos. "mitos" e "antimitos" pedagógicos. Mantem os mesmos valores" 'Linguagem e os mesmos programas das escoLas de etite~ sem contudo possuir a mínima infra-estrutura humana e material.. A ação pedagógica do SENAI restringe-se a objetivos muito especificos, pragmáticos, buscando ensinar apenas aquilo que "serve". Utiliza uma metodologia de ensino mais adequada ao universo social. e lingU'Ístico dos alunos de classe social baixa. Os resultados quantitativos, em parte inconclusivos. mostram que as diferenças metodológicas entre os grupos, ainda que profundas, não exercem influências a ponto de gerar mudanças mensuráveis, no prazo médio de um ano~ nos componentes cognitivos. Os dados revelam, ainda, que ao existiram ganhos cognitivos significativos entre 08 niveis de ?a. e 8a. série do primeiro grau e entre 8a. ssrie do 1P grau e la. do 29 grau. Pa tenteia-se, de um modo geral, neste estudo uma fraca influência da escola nas mudanças cogn.itivas de Zunos de cl.asse social bai:z:a. Um dos resultados significa',iv". oiona-S8 à forte interação dos component do estudo relacognitivos e não-co~ iii nitivos. Os dados qualitativos evidenciaram que o ambiente org~ niaacional rico em estimulas, a presença dE: conteúdos 8ubstanti vos, tanglveis,concretoB e uma metodologia de ensino que permita avanço progressivo, possibilitam, ao al mo de classe social baiza, a internali.aação de auto-confiança Ej: auto-estima. O êxito ou o fracasso escolar parecem marcar in '!elevelmente o aluno. Neste contexto ter-se-ia um efeito não-cogr.!itivo como resultado mais perceptivel do aprendi.aado cognitivo. A mensagem -metodologia, conteúdos, ambiência, etc. - seria o meio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os investimentos com publicidade na Internet como uma percentagem das despesas totais de publicidade variam significativamente de um país para outro. O número é tão baixo quanto 4,7% no mercado brasileiro e tão alto como 28,5% no mercado britânico (ZenithOptimedia, 2011b). Algumas razões explicam tal disparidade. No nível macro, a participação dos gastos com publicidade na Internet está fortemente ligada a variáveis como o produto interno bruto per capita e à penetração da Internet na população. No nível micro, uma pesquisa qualitativa foi feita para identificar os fatores que contribuem e inibem o crescimento da participação da publicidade online no mercado brasileiro. A vasta lista de inibidores parece ter profundo impacto sobre como os profissionais de mercado tomar decisões de alocação de investimento em publicidade por tipo de mídia. Devido à legislação, à auto-regulamentação e às dinâmicas da indústria, grande parte da tomada de decisão é realizada por agências de publicidade. Estas parecem ter fortes incentivos econômicos para selecionar outros tipos de mídia e não a Internet ao definir planos de mídia. Ao mesmo tempo, a legislação e a auto-regulamentação fornecem desincentivos para corretores de mídia a operar no mercado local. A falta de profissionais qualificados e a padronização limitada também desempenham papéis importante para inibir uma maior participação da Internet nos gastos com publicidade no Brasil. A convergência dos resultados quantitativos com os qualitativos indica possíveis motivos pelos quais a participação da publicidade online no Brasil é tão baixa. Em primeiro lugar, a participação é explicada pelo estágio de desenvolvimento dos países. Quanto mais rico e mais desenvolvido um país, maior a proporção de gastos com publicidade online tende a ser. Em segundo lugar, o estágio econômico emergente do Brasil potencialmente dá espaço para o aumento do ineficiências do mercado, tais como programas de descontos oferecidos de forma desproporcional para os principais decisores de alocação de investimentos de mídia. Este fato aparentemente produz um feedback negativo, contribuindo para manter a baixa participação da publicidade online no total dos investimentos publicitários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A gestão atual das empresas tem se caracterizado pela introdução de modelos de gestão e planejamento estratégico que possibilitem a medição de desempenho da empresa. Estes modelos de gestão permitem a avaliação do andamento dos trabalhos através de informações palpáveis e de fácil obtenção. Para isso, criam-se modelos de acompanhamento dos planos operacionais e de planos estratégicos que estejam baseados em objetivos quantitativos e qualitativos, que possam ser medidos facilmente. Da mesma maneira, o avanço das relações pessoais, faz com que as empresas passem a utilizar avaliações subjetivas de seus profissionais, com um enfoque nas competências necessárias para os profissionais em cada um dos níveis da empresa. Neste ambiente, os profissionais que atuam na empresa são responsáveis pela realização das metas da empresa e são cobrados por isso, ao mesmo tempo em que são avaliados por suas competências. O que esta pesquisa pretende é demonstrar como é possível vincular os objetivos da empresa com as avaliações de competências das pessoas, de forma a melhorar a performance dos profissionais e o desempenho da empresa. Esta atividade de vinculação dos objetivos da empresa e das pessoas é executada na controladoria, área que por sua característica de aglutinação das informações e imparcialidade na empresa possui todas as informações e o conhecimento necessário para implantar e gerir este modelo.