927 resultados para Máquina
Resumo:
Neste trabalho, analisamos o modo como o processo de seleção de pessoal se estabeleceu em meio às determinações de sentido nesta que Martin Heidegger denominou a era da técnica. Esse filósofo descreve a época em que vivemos como uma era que se caracteriza essencialmente pela ênfase no pensamento técnico-calculante, em que todas as coisas são tomadas pelo caráter da mensuração e calculabilidade. Nesse sentido, podemos afirmar que a era moderna detém como verdades algumas características, como: fundo de reserva, funcionalidade (serventia) e a produtividade sem limites. Esse modelo de pensamento tem um impacto direto na realização do processo de seleção de pessoal pela Psicologia, haja vista ser esse o critério básico exigido para que o trabalhador seja aprovado. Ocorre que, ao tomar esse critério como a única e absoluta verdade da capacidade do trabalhador, outras capacidades e motivações, quando muito, ficam relegadas a um segundo plano. O homem, tomado como um estoque de matéria-prima, com funcionalidades específicas e pela determinação da produtividade incessante, passa a se comportar de modo autômato, tal como a máquina, cuja utilidade dura enquanto durar a necessidade de sua produção, sendo descartado quando outras necessidades se sobrepõem àquela. Através da análise da trajetória da organização do trabalho e sua interface com a Psicologia, procuramos esclarecer o domínio do caráter técnico instrumental que vem sustentando a Psicologia no modo de realização da seleção de pessoal, baseando-nos em autores como Sampaio, Chiavenato, Pontes e Leme. Apresentamos, também, a contribuição de outros autores, como Sennett, Dejours e Schwartz, que tentaram, a seu modo, construir uma análise crítica da relação homem-trabalho sob os parâmetros predominantes na atualidade. Por fim, por meio a uma visada fenomenológico-hermenêutica, pudemos refletir sobre o processo de seleção em Psicologia e compreender como esta, ao ser constantemente interpelada pela era da técnica, vem tomando os atributos dessa era como verdades absolutas e, assim, estabelecendo seu fazer em seleção de pessoal sob essas verdades. Ao orientar seu fazer por esse modo, a Psicologia, comprometida com o processo de seleção, compactua, sedimenta e fortalece essa forma de pensar em que o homem é tomado como objeto de produção tal qual a máquina, consolidando uma relação homem-trabalho em bases preponderantemente deterministas e, como tal, aprisionadoras. A proposta aqui desenvolvida consiste em evidenciar a possibilidade de outra posição da Psicologia frente ao modo de estabelecimento do processo de seleção, de forma a resistir à perspectiva de homem apenas como um fator produtivo.
Resumo:
Este trabalho apresenta o desenvolvimento de sistemas inteligentes aplicados ao monitoramento de estruturas aeronáuticas abordando dois modelos distintos: o primeiro é a análise e classificação de imagens de ultrassom de estruturas aeronáuticas com objetivo de apoiar decisões em reparo de estruturas aeronáuticas. Foi definido como escopo do trabalho uma seção transversal da asa da aeronave modelo Boeing 707. Após a remoção de material superficial em áreas comprometidas por corrosão, é realizada a medição da espessura ao longo da área da peça. Com base nestas medições, a Engenharia realiza a análise estrutural, observando os limites determinados pelo manual de manutenção e determina a necessidade ou não de reparo. O segundo modelo compreende o método de impedância eletromecânica. É proposto o desenvolvimento de um sistema de monitoramento de baixo custo aplicado em uma barra de alumínio aeronáutico com 10 posições de fixação de porcas e parafusos. O objetivo do sistema é avaliar, a partir das curvas de impedância extraídas do transdutor PZT fixado na barra, sua capacidade de classificar a existência ou não de um dano na estrutura e, em caso de existência do dano, indicar sua localização e seu grau de severidade. Foram utilizados os seguintes classificadores neste trabalho: máquina de vetor de suporte, redes neurais artificiais e K vizinhos mais próximos.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Esta pesquisa tem como finalidade explorar os recursos de interação do usuário com a informação georreferenciada, utilizando o próprio ambiente físico e seus elementos como interface. A indexação geográfica de arquivos digitais e os recursos disponíveis pela computação móvel estabeleceram um novo modelo de interação com a informação. Cabe ao designer criar sistemas e interfaces que levem em consideração a localização do usuário no acesso da informação atribuída ao entorno. Foi identificado que as soluções desenvolvidas para esse propósito utilizam telas e outros aparatos tecnológicos que constrangem a relação do usuário com o ambiente e interferem na experiência interativa. Como desdobramento da pesquisa foi desenvolvido um aplicativo que dispensa a tela na visualização e interação com a camada informacional do ambiente físico. O sistema utiliza os sensores de localização e orientação presentes nos smartphones para interagir com o entorno mapeado e georreferenciado. Dessa forma, o usuário, ao apontar o aparelho e selecionar diretamente o objeto de interesse, recebe os dados atribuídos a ele. Sem a interferência de telas ou dispositivos imersivos, o próprio ambiente se apresenta como interface de interação, dispensando novos ícones ou símbolos e tornando a tecnologia mais sutil em seu uso cotidiano.
Resumo:
Na atualidade observa-se vastos estudos sobre os processos na área do Design acerca de como projetar experiências e prototipar interações entre pessoas e sistemas, e mesmo entre pessoas por intermédio de sistemas. Enquanto todo tipo de produto produz uma experiência de uso, com a evolução da interatividade as relações estabelecidas entre os usuários e os produtos tornaram-se mais complexas e modificaram-se ao longo dos anos. A abordagem teórica destinada a tratar essas questões também expandiu e diversificou-se simultaneamente. A partir de um estudo sobre os processos interativos e o campo teórico relacionado, foi possível identificar um fenômeno relativamente recente em interfaces nas quais pode ser verificado um alto nível de interação, a saber: os sistemas de recompensa. Cabe salientar que este termo foi emprestado da Neurociência, aonde é utilizado para descrever o circuito responsável pelo gerenciamento do comportamento através da indução de prazer e dor. Portanto, o autor desta dissertação propõe uma acepção do termo no âmbito do design de componentes interativos para designar o artifício, que muitas interfaces atuais incorporaram, de conceder aos usuários a possibilidade de apreciarem, ou não, determinado conteúdo em rede. Assim, pode-se compreender que o emprego do termo aqui é metafórico. Neste processo os usuários podem fornecer outros tipos de feedback ao sistema, como por exemplo um comentário, ou compartilhamento, estimulando assim uma série de desdobramentos interativos e repercussões para a experiência de uso do produto. Este trabalho propõe uma investigação qualitativa sobre as interações concernentes aos sistemas de recompensa, abordando tanto questões objetivas funcionais dos sistemas, quanto questões referentes ao feedback dos usuários. O Facebook será amplamente analisado, por ter sido uma interface pioneira na manipulação dos sistemas de recompensa, na qual estes componentes alcançaram um alto nível de desenvolvimento até este momento. A justificativa para esta pesquisa se deve a dois fatores particularmente relevantes: primeiro, a ausência de conteúdo significativo na literatura relacionada atual. Em segundo lugar, a notável expansão dos sistemas criados com esta finalidade, conforme será demonstrado no estudo. O objetivo deste projeto é compreender de que forma o design dos sistemas de recompensa influenciam o fluxo de interações e o comportamento dos usuários atualmente. Para tanto, esta pesquisa procura verificar como determinados aspectos teóricos do design - dedicados à compreensão da dinâmica de processos interativos - se aplicam a experiências reais de interação no mundo contemporâneo. Por exemplo, diversos modelos e frameworks nas áreas de HCI (Interação Humano-Computador), UX (experiência do usuário), e design de experiências destacam conceitos condizentes com aspectos identificados nos sistemas de recompensa que por sua vez encontram-se em processo de desenvolvimento, guiados por tendências comerciais de uma forma quase que intuitiva, no sentido de que pouca atenção tem sido dada na literatura sobre as bases neuronais que fazem este processo funcionar. Desta forma, pretende-se fornecer subsídios para uma melhor compreensão do impacto que os sistemas de recompensa analisados nesta dissertação desempenham sobre a experiência de uso entre consumidores e produtos delineados dentro deste paradigma
Resumo:
Na atualidade observa-se vastos estudos sobre os processos na área do Design acerca de como projetar experiências e prototipar interações entre pessoas e sistemas, e mesmo entre pessoas por intermédio de sistemas. Enquanto todo tipo de produto produz uma experiência de uso, com a evolução da interatividade as relações estabelecidas entre os usuários e os produtos tornaram-se mais complexas e modificaram-se ao longo dos anos. A abordagem teórica destinada a tratar essas questões também expandiu e diversificou-se simultaneamente. A partir de um estudo sobre os processos interativos e o campo teórico relacionado, foi possível identificar um fenômeno relativamente recente em interfaces nas quais pode ser verificado um alto nível de interação, a saber: os sistemas de recompensa. Cabe salientar que este termo foi emprestado da Neurociência, aonde é utilizado para descrever o circuito responsável pelo gerenciamento do comportamento através da indução de prazer e dor. Portanto, o autor desta dissertação propõe uma acepção do termo no âmbito do design de componentes interativos para designar o artifício, que muitas interfaces atuais incorporaram, de conceder aos usuários a possibilidade de apreciarem, ou não, determinado conteúdo em rede. Assim, pode-se compreender que o emprego do termo aqui é metafórico. Neste processo os usuários podem fornecer outros tipos de feedback ao sistema, como por exemplo um comentário, ou compartilhamento, estimulando assim uma série de desdobramentos interativos e repercussões para a experiência de uso do produto. Este trabalho propõe uma investigação qualitativa sobre as interações concernentes aos sistemas de recompensa, abordando tanto questões objetivas funcionais dos sistemas, quanto questões referentes ao feedback dos usuários. O Facebook será amplamente analisado, por ter sido uma interface pioneira na manipulação dos sistemas de recompensa, na qual estes componentes alcançaram um alto nível de desenvolvimento até este momento. A justificativa para esta pesquisa se deve a dois fatores particularmente relevantes: primeiro, a ausência de conteúdo significativo na literatura relacionada atual. Em segundo lugar, a notável expansão dos sistemas criados com esta finalidade, conforme será demonstrado no estudo. O objetivo deste projeto é compreender de que forma o design dos sistemas de recompensa influenciam o fluxo de interações e o comportamento dos usuários atualmente. Para tanto, esta pesquisa procura verificar como determinados aspectos teóricos do design - dedicados à compreensão da dinâmica de processos interativos - se aplicam a experiências reais de interação no mundo contemporâneo. Por exemplo, diversos modelos e frameworks nas áreas de HCI (Interação Humano-Computador), UX (experiência do usuário), e design de experiências destacam conceitos condizentes com aspectos identificados nos sistemas de recompensa que por sua vez encontram-se em processo de desenvolvimento, guiados por tendências comerciais de uma forma quase que intuitiva, no sentido de que pouca atenção tem sido dada na literatura sobre as bases neuronais que fazem este processo funcionar. Desta forma, pretende-se fornecer subsídios para uma melhor compreensão do impacto que os sistemas de recompensa analisados nesta dissertação desempenham sobre a experiência de uso entre consumidores e produtos delineados dentro deste paradigma.
Resumo:
O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
A relação entre governadores e assembleias estaduais no Brasil é marcada pela tese de que os governadores possuem ampla capacidade para estabelecerem um pacto homologatório com os legislativos estaduais. Literatura recente tem buscado comparar as experiências dos diferentes estados. O Rio de Janeiro tem se destacado como um dos casos em que o legislativo conseguiu espaço para levar adiante uma agenda própria. Esse diagnóstico contrasta não só com a tese do poder dos governadores, mas também com a experiência histórica da máquina política chaguista no Estado. Essa tese busca entender como que a relação dos governadores do Estado do Rio de Janeiro com a Assembleia Legislativa do Estado se desenvolveu desde a retomada das eleições diretas para esse cargo em 1982 até o ano de 2010. A principal hipótese é a de que as mudanças no federalismo brasileiro e o ajuste fiscal levados a cabo durante os anos 1990 foram centrais para repactuar a relação entre os dois poderes. Essas mudanças nacionais permitiram que um desejo de maior independência na relação entre os poderes ganhasse espaço. A mudança na relação entre os poderes é comprovada pelo crescimento temporal na quantidade de vetos do governador derrubados pelo legislativo. A tese mostra, no entanto, que o ganho de espaço para atuação do legislativo não significou uma restrição às agendas do Executivo que continuou a ser ator central da política estadual.
Resumo:
Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar
Resumo:
Os elásticos ortodônticos intermaxilares sintéticos vem sendo cada vez mais utilizados, sendo principalmente indicados para pacientes que apresentam hiper-sensibilidade ao látex. Afim de avaliar e comparar o comportamento de elásticos de látex e sintéticos quanto a perda de força ao longo do tempo, este estudo foi realizado tanto in vitro quanto in vivo. Para o estudo in vitro foram avaliados 15 elásticos de cada material, para cada tempo: 0, 1, 3, 12 e 24 horas. No estudo in vivo, pacientes foram avaliados (N=15), utilizando elásticos de ambos os materiais (látex e sintético), nos mesmos tempos do estudo in vitro. Os elásticos foram transferidos para a máquina de ensaios mecânicos (EMIC DL-500 MF). Os valores da força gerada foram registrados após a distensão dos elásticos a uma distância de 25mm. Foi aplicado o teste t pareado para a amostra clínica e independente para a amostra laboratorial. Foi utilizada a análise de variância (ANOVA) para verificar a variação das forças geradas entre os tempos determinados e o teste post-hoc para identificar entre quais tempos houve diferença significativa. Quanto às forças iniciais geradas (zero hora), os valores para os elásticos sintéticos foram bastante semelhantes entre os estudos laboratorial e clínico e ligeiramente superiores aos dos elásticos de látex. Nos tempos subsequentes, as forças geradas pelos elásticos de látex apresentaram valores superiores. Em relação à degradação do material, ao final de 24 horas, maior percentual foi observado para os elásticos sintéticos, tanto in vitro quanto in vivo. A maior queda nos valores das forças liberadas pelos elásticos de ambos os materiais e nos estudos clínico e laboratorial, ocorreu entre os tempos de 0 e 1 hora, seguida de uma queda gradativa e progressiva até o tempo de 24 horas. Os elásticos de látex apresentaram um comportamento mais estável no período estudado em relação aos sintéticos, em ambos os estudos.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
A relação causal entre métodos de projeto e a usabilidade de produtos de comunicação e informação foi o tema desse estudo que buscou identificar o estado da arte sobre um processo de projeto que resulte em mais usabilidade na web. A partir dessa identificação, avaliou-se as melhorias que poderiam ser adotadas nos processos de desenvolvimento de interfaces utilizados por uma equipe específica da Fundação Oswaldo Cruz (CTIC - Fiocruz). Entendeu-se que um método de projeto deve estar atualizado em relação aos conhecimentos de áreas como a Ergonomia, a Interação Humano-computador e o Design de Interação. Para isso, adotou-se a hipótese de que o processo de projeto deve combinar três aspectos: a) um significativo envolvimento do usuário ao longo do processo; b) o uso de sucessivas iterações para configurar o produto e c) uma combinação mínima de técnicas relacionadas a objetivos específicos de cada fase de uma abordagem de Design Centrado no Usuário. Para contribuir com o desenvolvimento de métodos e técnicas que melhorem a usabilidade, descreveu-se as características dos métodos registrados na literatura e praticados por profissionais externos à Fundação Oswaldo Cruz (Fiocruz). A partir dessas informações, o estudo direcionou-se para o segundo objetivo específico: identificar melhorias nos métodos e técnicas aplicáveis no caso do CTIC Fiocruz. Através da combinação da revisão de literatura e da pesquisa de campo foram produzidas informações sobre tipos de fluxo dos métodos, tipos de envolvimento dos usuários, quantidade e gravidade de problemas de usabilidade observadas pelos profissionais e a validade de base geral de método para diferentes produtos. A primeira rodada de entrevista foi realizada para melhor entender o contexto da hipótese e a relação entre suas variáveis. A segunda rodada identificou as características do processo de projeto utilizado no CTIC. A partir dessas informações, aplicou-se duas técnicas com profissionais externos. Um questionário on-line foi utilizado para levantar informações bem específicas, em sua maioria de características quantitativas. A última técnica aplicada foi um card sorting on-line que apresentou um caso de projeto em que os profissionais indicaram quais técnicas seriam utilizadas diante de dois cenários diferentes: um mais favorável e outro restritivo. A análise demonstrou que a maioria dos profissionais acredita que os problemas de usabilidade são consequência da falta de determinadas abordagens e técnicas. Por isso, esses profissionais combinam fluxos iterativos com um significativo envolvimento do usuário no processo. Foram sugeridas melhorias para o método utilizado no CTIC sintetizadas através de um processo de Design Centrado no Usuário como ponto de partida que aplica o conceito tradicional de usabilidade (performance). Assim que possível, esse processo deve ser aperfeiçoado ao incluir o conceito de experiência do usuário que considera também os aspectos emocionais e hedonômicos na interação.
Resumo:
2003
Resumo:
2007