1000 resultados para TERCEIRA DIMENSÃO (MODELAGEM COMPUTACIONAL) $$2larpcal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho utiliza a metodologia por cenários desenvolvido pela GBN para discernir 4 possíveis futuros da telefonia móvel no Brasil, que possam guiar as operadoras sobre a viabilidade ou não de investir em redes de 3G. Os resultados demonstram que haverá demanda no mercado, cuja intensidade irá depender do desenvolvimento da tecnologia e da economia nacional. Assim, a estratégia de menor risco é o de investir em infraestrutura e serviços em centros urbanos densos e monitorar os sinais de aviso que possam indicar com mais clareza qual dos cenários poderá desenrolar-se no futuro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo: métodos antropométricos que quantifiquem as curvas da coluna vertebral e a avaliação postural a fim de realizar investigações epidemiológicas sobre o papel da postura na ocorrência das dores lombares. O propósito do estudo foi avaliar acurácia e reprodutibilidade do Sistema de Avaliação Postural Digitalizado (SAPD) para medir lordose lombar comparando com raio-x. Delineamento: transversal, com amostra consecutiva. Participantes: para medida da acurácia no grupo 1 ( T12,L3,L5) n = 16 e grupo 2 (L1,L3,L5) n= 17. Na reprodutibilidade intra e inter-avaliador n= 80. Principais Medidas: marcadores externos nos processos espinhosos das vértebras T12, L1, L3 e L5. Raio-x de perfil da coluna lombar e foto digital em perfil direito. Medida da lordose lombar no raio-x com métodos de Cobb,Centróide (CLL) e Processos Espinhosos (PE) e com o SAPD. Resultados: grupo 1, correlação entre SAPD e Cobb foi 0,803 (p<0,001), entre SAPD e CLL foi 0,642 (p=0,024), entre SAPD e a medida dos PE a correlação foi 0,917, com R2 = 0,842. No grupo 2, correlação entre SAPD e Cobb foi 0,559 (p=0,020), entre SAPD e CLL de 0,325 (p=0,302), com correlação significativa somente entre SAPD e Cobb. Entre SAPD e PE a correlação foi 0,763, com R2 = 0,583. Para reprodutibilidade interavaliador a correlação foi 0,981 (p < 0,001) e para reprodutibilidade intra-avaliador de 0.978 (p < 0,001) referente às mesmas fotografias. Reprodutibilidade intraavaliador de 0.872 (p < 0.001) e 0.956 (p<0,001) para inter-avaliador referente à fotos diferentes de um mesmo indivíduo com recolocação dos marcadores sobre a pele . Considerações Finais: O SAPD mostrou-se acurado e reprodutível para a medida da lordose lombar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata do problema da seleção de Sistemas Integrados, ou ERP (Enterprise Resource Systems), investigando o processo especificamente sob o ponto de vista da Análise de Decisões. Procura analisar a associação entre a satisfação tanto com o Sistema Integrado selecionado quanto com a forma em que foi estruturado o próprio processo de seleção, com variáveis especificamente selecionadas para tal, representativas, entre outros, de grupos de critérios de decisão e características específicas do processo de seleção, relacionadas, estas últimas, a questões como o tratamento dado ao fator risco e ao possível caráter coletivo da decisão. Questiona a possibilidade de modelagem do processo de seleção de Sistemas Integrados, a partir da proposta normativa oferecida pela Teoria da Utilidade, e da suposta existência de um gap ou distância entre esta proposta e a prática naquele processo de seleção. Propõe um modelo mental genérico que procura explicar o modo como os agentes decisórios abordam o problema de seleção de sistemas integrados. Apresenta e propõe um modelo dinâmico que justificaria a existência do gap acima mencionado a partir da incapacidade do modelo mental genérico em apreender toda a complexidade inerente ao problema de seleção de sistemas integrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação faz parte das pesquisas realizadas pelo Grupo de Computação Musical da UFRGS e está baseada na crença que é possível fomentar cada vez mais o interesse das pessoas pela música, usando formas alternativas para experimentação sonora e incentivando a interação entre usuários. A partir desta idéia, chega-se ao projeto do CODES - Cooperative Sound Design, que é um ambiente baseado na Web para prototipação musical cooperativa e visa permitir que pessoas (músicos ou leigos em música) possam interagir com o ambiente e entre si para criar cooperativamente protótipos de peças musicais. O objetivo geral deste trabalho é criar um ambiente computacional que permita ao leigo realizar a tarefa de prototipação musical cooperativa na Web. Especificamente, também objetiva identificar e propor características importantes para a implementação de ambientes coletivos para criação sonora apoiados por computador e outras tecnologias disponíveis. Tradicionalmente, algumas barreiras dificultam o “fazer musical” das pessoas e grupos que desejam se reunir e interagir para troca de experiências sonoras. A distância física ou geográfica, a necessidade de posse de um instrumento musical e do domínio da notação musical tradicional (partitura) podem ser as principais barreiras nesse sentido. A principal motivação para este trabalho se apóia sobre este aspecto, no sentido de vencer o desafio para eliminar estas barreiras que afastam as pessoas interessadas da possibilidade de fazer experimentos musicais em grupo. Através do uso do computador como instrumento virtual, da Internet para encontros virtuais e de uma notação musical alternativa para a realização de tais experimentos é possível eliminar estas barreiras. A metodologia para o desenvolvimento desta pesquisa envolveu atividades como estudo e levantamento de características das principais linguagens / notações / representações para computação musical; estudo e levantamento de características dos aspectos de IHC; estudo e levantamento de características de aplicativos CSCW; estudo e levantamento de características de aplicativos de composição musical cooperativa na web; modelagem e construção do protótipo a partir dos levantamentos feitos e da solução proposta; avaliação, experimentação e revisão do protótipo em situações reais de uso; e avaliação do trabalho como um todo, incluindo suas contribuições e limitações. Dentre as principais contribuições deste trabalho salienta-se a prototipação musical cooperativa na web (termo proposto para as ações de manipulação sonora coletiva) realizada por meio de um protótipo desenvolvido; a integração de conceitos de Computação Musical, Interação Humano-computador e Trabalho Cooperativo; a criação de modelos de memória de grupo; a criação de mecanismo para permitir a manipulação sonora individual e coletiva e um modelo de justificativa e argumentação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem conjunta de média e variância tem se mostrado particularmente relevante na obtenção de processos e produtos robustos. Nesse contexto, deseja-se minimizar a variabilidade das respostas simultaneamente com o ajuste dos fatores, tal que se obtenha a média da resposta próxima ao valor alvo. Nos últimos anos foram desenvolvidos diversos procedimentos de modelagem conjunta de média e variância, alguns envolvendo a utilização dos Modelos Lineares Generalizados (GLMs) e de projetos fatoriais fracionados. O objetivo dessa dissertação é apresentar uma revisão bibliográfica sobre projetos fatoriais fracionados e GLM, bem como apresentar as propostas de modelagem conjunta encontradas na literatura. Ao final, o trabalho enfatiza a proposta de modelagem conjunta de média e variância utilizando GLM apresentada por Lee e Nelder (1998), ilustrando-a através de um estudo de caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Poucos trabalhos existem a respeito do consumo cultural e de entretenimento dos indivíduos pertencentes à fase do ciclo de vida familiar ninho vazio, pois a opinião pública ainda acredita que a aposentadoria ou velhice é sinônimo de reclusão social e domiciliar. Este trabalho veio contestar este paradigma e demonstrar que indivíduos da terceira idade, pertencentes ao estrato social A/B são consumidores potenciais da indústria cultural e do entretenimento, onde a idade não é fator restritivo do consumo. Quando se consideram as tendências demográficas apontadas por especialistas sociais sobre o crescimento do percentual de idosos no total da população brasileira e o aumento de sua expectativa de vida, percebe-se, que existe um segmento crescente, com grande potencial de consumo ainda não explorado pelos setores da economia. Esta pesquisa examina a relação entre o ciclo de vida familiar, o habitus, o gênero, o estado civil real e o status laboral com as práticas de lazer, chamando atenção para as principais atividades de lazer domiciliares e externas praticadas pelos indivíduos que já entraram na velhice e procura compreender seus respectivos significados. Este trabalho de caráter exploratório teve como população alvo ex-alunos do Curso de Graduação em Administração de Empresas da Fundação Getulio Vargas de São Paulo e foi conduzido através da técnica de entrevistas em profundidade baseadas em roteiro. Os resultados sugerem que se trata de indivíduos que são turistas em potenciais, apreciam ir ao cinema, jantar e almoçar fora, vão a concertos, museus, exposições de arte e praticam atividades desportivas. São telespectadores assíduos, gostam da mídia eletrônica, são amantes da leitura, dos jornais, livros e revistas e não dispensam uma boa música. A família e os amigos estão sempre presentes atribuindo um valor social e familiar a grande parte destas práticas. Os resultados encontrados apontam para a necessidade de uma nova visão mercadológica, onde o comportamento do consumidor da Terceira Idade ou daqueles pertencentes ao ciclo de vida familiar Ninho Vazio, suas necessidades e restrições sejam considerados com muita atenção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O final do século passado foi marcado por um movimento global de grande magnitude, protagonizado por aproximadamente 30 países que deixaram o autoritarismo e adotaram a democracia como regime de governo. Tal processo Huntington (1991) denominou de “Terceira Onda de Democratização” e foi caracterizado pela participação de múltiplos atores e motivado por diferentes fatores. O objetivo desse trabalho é analisar a particularidade da atuação dos atores internacionais como uma das causas desse enorme movimento democratizador. Para a realização dessa empreitada, elegeu-se como objeto de estudo a atuação da Fundação Konrad Adenauer e sua experiência de atuação no Brasil como promotora dos valores democráticos durante a ditadura militar até o início da redemocratização. O estudo introduz o conceito de “ator híbrido” para referir-se às Fundações Políticas alemãs. Por este termo, entende-se a natureza tanto social (vinculada a partidos políticos) como estatal (atores da cooperação internacional alemã) de tais Fundações. O hibridismo da Fundação Konrad Adenauer e seu engajamento internacional refletem o contexto geopolítico da Guerra Fria e a história política da Alemanha do pós-guerra, que fez da cooperação internacional, em particular a promoção da democracia, um caminho para sua nova inserção no cenário mundial. Assim, a dissertação percorre as causas internacionais da Terceira Onda e os diferentes modos de difusão dos valores democráticos, com maior destaque para a cooperação internacional. Prepara-se, desse modo, o terreno para analisar a relevância para a Alemanha da cooperação internacional e da atuação mundial das Fundações Políticas. Esse arcabouço teórico fornece os subsídios necessários para compreender e apontar as especificidades da atuação da Fundação Konrad Adenauer, ator internacional da Terceira Onda de Democratização. Tais especificidades são evidenciadas na análise de seu modus operandi no Brasil, uma vez que a experiência brasileira demonstra como seu caráter híbrido foi essencial para contornar os evidentes obstáculos inerentes ao contexto político autoritário e promover idéias e atores em prol da democracia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet tem expandido a área de atuação das empresas aproximando mercados, empresas, pessoas e gerando mudanças significativas no paradigma das relações de trabalho. Juntamente, a chamada “revolução da informação” e a expansão da competitividade entre as empresas no mercado global ocasionaram um movimento de reformulação nas próprias estruturas administrativas das organizações de forma que a informação e o conhecimento passaram a ser vistos como recursos organizacionais tão importantes quanto a mão-de-obra ou a matéria-prima. Estas mudanças revolucionaram os mais diversos processos organizacionais, sobretudo aqueles relacionados com a gestão do conhecimento e da informação. Neste contexto, a problemática do gerenciamento de informação pode ser identificada como desafio crucial, o qual tem sido abordado tanto no cenário acadêmico quanto no cenário empresarial. Assim, o desenvolvimento de meios e métodos para operacionalização do gerenciamento de conteúdos é tema desta dissertação, que objetiva, através da aplicação da metodologia de pesquisa-ação, apresentar a descrição funcional um sistema modular para gerenciamento de conteúdo em ambiente web. Também são discutidos aspectos relacionados com a aplicação prática do sistema em diferentes websites, e realizada uma avaliação onde se constatou que os gestores estão satisfeitos, não apresentando dificuldade de uso, e ainda obtiveram resultados positivos com o uso da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As mudanças ocorridas no macroambiente do agronegócio do leite no Brasil trazem a necessidade de re-fazer as concepções acerca de sua gestão. As práticas gerenciais precisam romper o conservadorismo e buscar uma adequação ao momento vivido sem os vícios de sua cultura. Na concepção de um sistema de gestão da pecuária leiteira, adaptado à realidade das unidades de produção familiares, inseriram-se conceitos da teoria das restrições por meio da estratégia de pesquisa-ação, no noroeste gaúcho-município de São Luiz Gonzaga. A pesquisa foi dividida em três passos: o primeiro passo selecionou, por meio de entrevistas focais, uma unidade de produção representativa de cada sistema com base em uma tipologia segmentada em três sistemas (especializado; intermediário e tradicional); o segundo serviu para testar o sistema de gestão da pecuária leiteira em cada uma das três unidades de produção escolhidas; o terceiro analisou e discutiu os resultados obtidos nas entrevistas, visitas e em documentos. A pesquisa evidenciou a aplicabilidade do sistema de gestão da pecuária leiteira nos três sistemas estudados, utilizando os princípios e a lógica de decisão da teoria das restrições. Os princípios do modelo de decisão da teoria das restrições permitiram tornar mais ágil e coerente o processo de tomada de decisão, assim como as medidas de desempenho da teoria das restrições tornaram a tarefa mais fácil e aplicável. A abordagem sistêmica da teoria das restrições se adequou à complexidade dos sistemas de produção da pecuária leiteira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi analisar o processo de ensino-aprendizagem de Física através de abordagens didáticas envolvendo o uso de atividades de simulação e modelagem computacionais em um ambiente de atividade colaborativa presencial. Num primeiro estudo, realizado a partir de uma metodologia quantitativa, avaliou-se o desempenho dos alunos em testes que tinham como tópico a interpretação de gráficos da Cinemática, antes e depois de trabalharem com atividades de simulação e modelagem computacionais em atividades extra-aula. Os resultados deste primeiro estudo mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. Na seqüência, foram realizados outros dois estudos dentro de uma metodologia qualitativa, em que o foco estava no processo de ensino-aprendizagem que ocorre em ambiente de sala de aula. Foi utilizada uma abordagem que envolveu, além das atividades computacionais, um método colaborativo presencial como dinâmica de base para o estabelecimento das relações interpessoais entre o professor e a turma, e os alunos entre si.A fundamentação teórica adotada esteve baseada na teoria de Ausubel sobre aprendizagem significativa e na teoria de Vygotsky sobre interação social. O referencial de Halloun sobre modelagem esquemática também foi utilizado. Os resultados sugerem que as atividades de simulação e modelagem computacionais são potencialmente facilitadoras de aprendizagem significativa em Física. Sugerem, também, que a atividade colaborativa presencial contribui positivamente para esse tipo de aprendizagem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico