126 resultados para Variabilidade Conceitual
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.
Resumo:
Nas aplicações do mundo real, os dados mudam com o passar do tempo. Devido à característica dinâmica das aplicações, o esquema conceitual também pode mudar para se adaptar às mudanças que freqüentemente ocorrem na realidade. Para representar esta evolução, uma nova versão do esquema é definida e os dados armazenados são adaptados à nova versão. Entretanto, existem aplicações que precisam acessar também o esquema sob os diversos aspectos de suas mudanças, requerendo o uso de versionamento de esquemas. Durante a evolução do esquema, o versionamento preserva todas as versões deste esquema e seus dados associados, possibilitando a recuperação dos dados através da versão com a qual foram definidos. Ultimamente muitas pesquisas têm sido realizadas envolvendo as áreas de versionamento de esquemas e bancos de dados temporais. Estes bancos de dados provêm suporte ao versionamento de esquemas, pois permitem armazenar e recuperar todos os estados dos dados, registrando sua evolução ao longo do tempo. Apesar de muitos esforços, ainda não existem SGBDs temporais comercialmente disponíveis. A utilização de um modelo de dados temporal para a especificação de uma aplicação não implica, necessariamente, na utilização de um SGBD específico para o modelo. Bancos de dados convencionais podem ser utilizados desde que exista um mapeamento adequado entre o modelo temporal e o SGBD utilizado. Este trabalho apresenta uma abordagem para a implementação de um banco de dados temporal permitindo o versionamento de esquemas, usando um banco de dados relacional, tendo como base o modelo temporal TRM (Temporal Relational Model). Como forma de ilustrar apresenta-se um exemplo de implementação utilizando o SGBD DB2. O principal objetivo é avaliar diferentes técnicas de implementar e gerenciar o versionamento de esquemas em bancos de dados temporais. Para atingir esse objetivo, um protótipo foi desenvolvido para automatizar os mapeamentos do TRM para o DB2 e gerenciar o versionamento de esquemas e dados. Duas experiências de implementação foram realizadas utilizando formas diferentes de armazenar os dados - um repositório e vários repositórios - com o objetivo de comparar os resultados obtidos, considerando um determinado volume de dados e alterações. Um estudo de caso também é apresentado para validar as implementações realizadas.
Resumo:
Este trabalho aborda o tema da geração de sistemas supervisórios a partir de modelos orientados a objetos. A motivação para realização do trabalho surgiu com o estudo de sistemas supervisórios e de ferramentas de suporte à modelagem de sistemas usando orientação a objetos. Notou-se que nos primeiros, apesar de possuírem como principal objetivo a visualização de estados e grandezas físicas relacionadas a componentes de plantas industriais (nível de um tanque, temperatura de um gás, por exemplo), os modelos computacionais utilizados baseiam-se em estruturas de dados não hierárquicas, nas quais variáveis de contexto global e não encapsuladas, as chamadas “tags”, são associadas às grandezas físicas a serem visualizadas. Modelos orientados a objeto, por outro lado, constituem uma excelente proposta para a criação de modelos computacionais nos quais a estrutura e semântica dos elementos de modelagem é bastante próxima a de sistemas físicos reais, facilitando a construção e compreensão dos modelos. Assim sendo, a proposta desenvolvida neste trabalho busca agregar as vantagens do uso de orientação a objetos, com conceitos existentes em sistemas supervisórios, a fim de obter-se ferramentas que melhor auxiliem o desenvolvimento de aplicações complexas. Classes e suas instâncias são usadas para modelagem de componentes da planta industrial a ser analisada. Seus atributos e estados são associados às grandezas físicas a serem visualizadas. Diferentes formas de visualização são associadas às classes, aumentando assim o reuso e facilitando o desenvolvimento de sistemas supervisórios de aplicações complexas. A proposta conceitual desenvolvida foi implementada experimentalmente como uma extensão à ferramenta SIMOO-RT, tendo sido denominada de “Supervisory Designer”. A ferramenta desenvolvida estende o modelo de objetos e classes de SIMOO-RT, permitindo a adição de informações específicas para supervisão – tais como as definições de limites para os atributos. A ferramenta foi validada através do desenvolvimento de estudos de casos de aplicações industriais reais, tendo demonstrado diversas vantagens quando comparada com o uso de ferramentas para construção de sistemas supervisórios disponíveis comercialmente).
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
Em 1995, o Estado do Paraná escolheu o software Lotus Notes como solução de correio eletrônico distribuído e automação de escritórios para suas estruturas organizacionais. Após 5 anos do início do processo de sua implantação, a previsão inicial de 3.600 licenças de uso dessa tecnologia groupware já foi amplamente superada. Existem atualmente mais de 9.000 usuários do Lotus Notes, distribuídos em praticamente todos os níveis da administração pública. Essa dissertação é o primeiro estudo formal realizado para avaliar os impactos organizacionais e sociais produzidos pela utilização de tecnologias de informação colaborativas na administração pública do Paraná. Os capítulos que fazem parte dessa dissertação focalizam em tecnologias de informação colaborativas, com ênfase no Lotus Notes e a sua utilização na administração pública. Inicialmente são introduzidos conceitos básicos sobre Groupware e CSCW (Computer-Supported Cooperative Work), em seguida é apresentado o Lotus Notes, com um breve histórico de sua criação e uma visão resumida de pesquisas acadêmicas sobre implementações dessa tecnologia. Na seqüência, o ambiente de informática da administração pública do Estado do Paraná e a questão da seleção de uma plataforma tecnológica para resolver o problema de comunicação nesse ambiente são descritos, assim como o processo de implantação do Lotus Notes no Estado. A parte principal desse trabalho é apresentada em seguida: uma ampla pesquisa realizada nos órgãos da administração pública sobre a utilização do Lotus Notes, operacionalizada através de questionários virtuais e entrevistas. O modelo referencial utilizado na pesquisa é mostrado, assim como seu embasamento conceitual e as variáveis consideradas nas questões. Na conclusão são comentados os principais resultados do trabalho realizado, as contribuições e benefícios de sua realização, assim como sugestões de continuidade para futuras pesquisas sobre o assunto.
Resumo:
O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.
Resumo:
Esta tese teve como objetivos investigar: (1) as mudanças relacionadas à idade no controle de força e torque isométrico em crianças de diferentes idades em três tarefas manipulativas distintas, e (2) as diferenças no controle de força e torque isométrico, assim como nas respostas neuromusculares, entre crianças com e sem DCD de idade relacionadas em três tarefas manipulativas distintas. Neste sentido, foi realizado um ensaio teórico sobre a criança com Desordem Coordenativa Desenvolvimental (DCD), além de dois estudos experimentais que têm em comum a análise da estrutura da resposta do sistema motor em relação à performance das crianças com e sem DCD, em três tarefas manipulativas distintas de controle de força e torque isométrico, contínuo e constante. No primeiro estudo, foram investigadas as mudanças desenvolvimentais no controle motor usando um delineamento transversal de pesquisa com crianças de 7, 9 e 11 anos de idade, as quais foram incentivadas a manter o controle de força e torque durante vinte segundos nas tarefas de pressão digital, preensão digital em pinça e torque em preensão digital. Os resultados demonstraram que a performance melhorou com o avanço da idade, devido à capacidade do sistema sensório-motor apresentar uma resposta mais irregular e com um perfil de freqüências mais distribuídas. No segundo estudo, o controle de força e torque entre crianças com e sem DCD, com nove anos de idade, foram investigadas. Os participantes realizaram as mesmas tarefas do estudo desenvolvimental e, além disso, respostas neuromusculares foram mapeadas Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados da análise das respostas neuromusculares sugerem o uso de estratégias distintas entre os grupos, todavia, tais achados não foram conclusivos.
Resumo:
O presente estudo investiga como os gerentes de supermercados no Norte do Estado do Rio Grande do Sul usam as informações de mercado para apoiar suas decisões de marketing. Os dados foram coletados a partir de entrevistas pessoais através de um questionário aplicado em uma amostra de quarenta gerentes correspondendo a 71,4% da população estudada. Este estudo oferece uma estrutura de variáveis que contribuem para a análise dos processos de coleta, utilização e difusão das informações de mercado. Verifica também a percepção do decisor quanto à importância das informações de mercado e ao uso dos instrumentos para sua coleta. Geralmente, os gerentes coletam e utilizam muitas informações com o objetivo de apoiar suas decisões diárias. Os resultados revelam que eles coletam com bastante freqüência informações a partir de fontes externas, tais como comentários informais, conversas informais, jornais, revistas especializadas, telejornais e consumidores. E, ainda, utilizam bancos de dados internos e funcionários como as principais fontes internas de informação. Todavia, muitas fontes relevantes não são utilizadas, caracterizando um processo em que os gerentes coletam poucas informações de mercado e, quando o fazem, tendem a utilizar fontes informais de acesso. A utilização das informações é um dos processos de maior atenção dos gerentes, seja do uso interno ou externo. As informações externas mais utilizadas referem-se aos concorrentes e aos setores econômico, político, tecnológico e sociocultural. Por outro lado, percebe-se a baixa utilização de informações dos consumidores, revelando uma posição despreocupante em relação às tendências de customização de clientes. Por sua vez, as informações internas possuem uma elevada freqüência de uso, uma vez que são de fácil acesso e disponibilidade. Um aspecto evidenciado é que os gerentes utilizam muita informação conceitual e muito pouca informação instrumental, o que revela um elevado uso indireto das mesmas em ações relacionadas à estratégia e, em contrapartida, muito poucas são utilizadas diretamente para decisões de maior escopo. Os gerentes disseminam muito pouco as informações de mercado, tanto interna quanto externamente, embora suas percepções quanto à importância e necessidade dessas informações sejam elevadas. Evidencia-se, portanto, que os gerentes usam informações de maneira empírica, dispersa e assistemática, sem instrumentos formais de coleta, fundamentadas em relações informais, pessoais e impessoais.
Resumo:
A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
O presente estudo enfoca as implicações do ambiente e recursos para a estratégia e a performance, bem como as implicações da estratégia para a performance de empresas industriais em operação em sete estados brasileiros, e analisa a perspectiva determinista e a perspectiva voluntarista na busca de explicações a respeito da associação das variáveis estudadas. Além de uma extensa revisão bibliográfica, o estudo utiliza métodos estatísticos multivariados para reduzir e aferir o grau de associação entre as variáveis selecionadas. A estratégia das empresas é analisada com base na tipologia de Miles e Snow (1978). A performance das empresas é avaliada com base em seis indicadores financeiros e operacionais de ampla utilização em pesquisa sobre administração estratégica [Retorno Sobre Os Investimentos (ROI), Retorno Sobre os Ativos (ROA), Retorno Sobre as Vendas (ROS), Retorno Sobre o Patrimônio Líquido (ROE), Participação de Mercado (PME) e Crescimento das Vendas (CTV)]. Uma moldura conceitual integrando ambiente, recursos, estratégia e performance é proposta e testada por meio de análise de regressão, e seus resultados mostram que estrutura industrial, demografia e internacional são os principais determinantes da estratégia. Estrutura industrial, ambiente nacional, demografia e internacional são os principais determinantes da performance financeira, ao passo que estrutura industrial, demografia, recursos estruturais e recursos primários são os principais determinantes da performance operacional. Por sua vez, a estratégia não apresentou associação com a performance financeira nem com a performance operacional. Os resultados do estudo negam a existência de efeito de mediação da estratégia sobre a relação entre o ambiente e recursos e a performance, tanto financeira como operacional, apesar de existir um forte potencial mediacional. Por outro lado, os resultados confirmam a existência de efeito moderador da estratégia sobre a relação entre o ambiente e recursos com a performance financeira e operacional em relação ao modelo geral e aos recursos primários de maneira especial.
Resumo:
Este trabalho relata o desenvolvimento de uma aplicação capaz de reconhecer um vocabulário restrito de comandos de direcionamento pronunciados de forma isolada e independentes do locutor. Os métodos utilizados para efetivar o reconhecimento foram: técnicas clássicas de processamento de sinais e redes neurais artificiais. No processamento de sinais visou-se o pré-processamento das amostras para obtenção dos coeficientes cepstrais. Enquanto que para o treinamento e classificação foram utilizadas duas redes neurais distintas, as redes: Backpropagation e Fuzzy ARTMAP. Diversas amostras foram coletadas de diferentes usuários no sentido de compor um banco de dados flexível para o aprendizado das redes neurais, que garantisse uma representação satisfatória da grande variabilidade que apresentam as pronúncias entre as vozes dos usuários. Com a aplicação de tais técnicas, o reconhecimento demostrou-se eficaz, distinguindo cada um dos comandos com bons índices de acerto, uma vez que o sistema é independente do locutor.
Resumo:
Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.
Resumo:
Esta dissertação versa sobre índices de avaliação de processo nas suas abordagens univariada e multivariada. Analisa-se a utilização da Análise de Componentes Principais (ACP) como ferramenta no desenvolvimento de índices capazes de avaliar processos multivariados. O trabalho apresenta uma revisão teórica sobre os índices univariados de aplicação mais comum na indústria (CP/PP , CPK/PPK , CPM/PPM e CPMK/PPMK), o índice multivariado MCpm e sobre os índices MCP , MCPK , MCPM e MCPMK , associados a ACP. Os índices de avaliação de processo são analisados quanto à sua adequação ao uso, através de um estudo de caso na indústria de componentes automotivos. Para tanto, examina-se o processo de fabricação de um componente do freio de veículos médios e pesados, denominado spider, em que doze variáveis de processo são controladas por meio de controle estatístico de processo. Através do estudo de caso, faz-se uma comparação entre os resultados dos índices univariados e multivariados; pressupõe-se que através da Análise de Componentes Principais poder-se-á concluir sobre a capacidade e o desempenho de processos multivariados. Por fim, a partir da análise univariada dos componentes principais, apresenta-se uma técnica complementar para quantificar a contribuição das variáveis controladas à variabilidade de processos multivariados.