194 resultados para desenvolvidos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Software tornou-se uma das principais áreas de concentração do mundo da Ciência da Computação, pois ela abrange métodos para construir sistemas, ferramentas que fornecem apoio a construção e os procedimentos a seguir para que os métodos estejam de acordo com as ferramentas usadas [PRE 95]. No desenvolvimento de sistemas cada vez mais complexos vê-se a necessidade da utilização de equipes de pessoas no projeto e implementação. Essas pessoas podem estar geograficamente dispersas e portanto possuem a necessidade de troca de informações para que os sistemas desenvolvidos sejam adequados com o objetivo inicial e de qualidade. Assim, os sistemas cooperativos, chamados de groupware, tornaram-se uma importante ferramenta utilizada por esse grupo de profissionais para que as tarefas desenvolvidas em grupo se tornem interativas e eficientes. A interação entre as pessoas que estão trabalhando cooperativamente deve ser a mais produtiva possível, sendo semelhante ao trabalho em grupo em um único local. Assim, a percepção das atividades que estão sendo realizadas devem estar disponíveis para cada profissional, através da Interface Homem-Computador do sistema groupware que estão utilizando. Este trabalho apresenta uma “biblioteca” de Componentes de Percepção que fornecem as informações necessárias para que as pessoas que estão participando da tarefa cooperativa tenham a percepção das atividades que estão sendo realizadas, como também quem e como as estão fazendo. Esses componentes são uma extensão do Ambiente PROSOFT Cooperativo, fornecendo assim uma especificação formal de forma a garantir completeza, corretude e ausência de ambigüidades que são muito difíceis de se conseguir com uma descrição informal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo da definição de discurso interior e da análise do processo de formação de conceitos abstratos desenvolvidos pelo psicólogo Lev Vygotsky, faz-se uma aproximação com a teorização do cineasta Sergei Eisenstein sobre as possibilidades de incorporação do discurso interior pelo cinema. Analisam-se as relações entre o conteúdo eminentemente icônico das imagens cinematográficas e os aspectos sensoriais não-verbais presentes no discurso interior, indicados por Vygotsky, com o objetivo de investigar as formas como o discurso cinematográfico articula seus recursos expressivos através da montagem, visando reproduzir em sua organização formal os processos cognitivos que têm lugar no pensamento e que são expressos pelo discurso interior; para isso, o foco de análise centra-se nos métodos de montagem estabelecidos por Eisenstein. Investiga-se também os modos de produção de sentido através da articulação de signos icônicos não-verbais pela montagem cinematográfica, ressaltando o papel que os componentes afetivos da cognição e do intelecto desempenham no processo de produção de conceitos pelo cinema, especialmente o cinema caracterizado nos textos e reflexões teóricas de Eisenstein. Conclui-se que o tipo de discurso interior produzido pelo cinema em geral e o eisensteiniano em particular é aquele que foi definido por Vygotsky como discurso cotidiano ou espontâneo, motivado afetivamente e ligado ao contexto da situação concreta em que emerge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar a codisposição de resíduos sólidos de serviços de saúde (RSSS) com resíduos sólidos urbanos (RSU), dando ênfase aos microrganismos normalmente encontrados nos RSSS. O trabalho foi desenvolvido em três etapas, julgadas relevantes para o entendimento da codisposição de RSSS com RSU, denominadas de forma geral: Codisposição, Recirculação e Inoculação. A Codisposição foi implementada a partir da montagem de seis células de 70 m3, portanto em escala real, escavadas sobre a Célula 4 do Aterro Sanitário Zona Norte, na cidade de Porto Alegre. As células experimentais foram dispostas lado a lado, apresentando base inferior 2 x 3 m, base superior 7 x 8 m e profundidade 2,5 m. Cada célula recebeu, nesta ordem, cobertura de BIDIM 400, PEAD 2 mm e BIDIM 180. As duas coberturas de BIDIM funcionaram como membranas protetoras da manta de PEAD (impermeabilizante), visando minorar possíveis danos mecânicos determinados principalmente por elementos pérfuro-cortantes. As drenagens dos efluentes líquidos e gasosos de cada célula foram realizadas através de tubos hidráulicos de DN 40 mm, possuindo estes comunicação entre si no interior de cada célula, mas não entre células. Os tubos de saída de gás e lixiviado foram furados em sua superfície para garantir a remoção dos efluentes do interior das células, sendo forrados com BIDIM 400 nas regiões perfuradas para impedir a obstrução dos furos pelo resíduo. As células foram denominadas C1, C2, C3, C4, C5 e C6, diferindo entre si devido às relações de RSSS/RSU que foram utilizadas em seu preenchimento. De C1 a C6, as percentagens de RSU e RSSS foram, respectivamente, (100% e 0%), (95% e 5%), (75% e 25%), (50% e 50%), (25% e 75%) e (0% e 100%). Depois de preenchidas, as células receberam uma camada de argila compactável de 60 cm. Foram analisadas diversas variáveis físicas, químicas e microbiológicas de controle. Na etapa de Recirculação, estudou-se a influência da reposição de todo o lixiviado gerado em uma célula sobre a argila de recobrimento desta mesma célula. Foi estudado ainda o Poder Germinativo de quatro espécies vegetais das quais uma delas viria a ser utilizada para remoção de poluentes do lixiviado recirculado, sendo plantada sobre a superfície superior das células. Foram elas ervilhaca (Vicia sativa), aveia preta (Avena strigosa), alfafa (Medicago sativa) e pensacola (Paspalum notatum), testadas na presença e ausência de lixiviado;. Nesta etapa, foi testada a influência da espécie vegetal ervilhaca (Vicia sativa) – leguminosa de inverno –, plantada na argila, como agente de depuração do lixiviado recirculado. Verificou-se que a utilização desta espécie vegetal não teve influência significativa na remoção de poluentes do lixiviado, nas condições do experimento. A redução das concentrações de poluentes se deveu, portanto, à operação de recirculação. Na etapa denominada Inoculação, foram estudadas as curvas de crescimento de três espécies de microrganismos em lixiviado bruto e esterilizado. Foram utilizados reatores de 1,5 L preenchidos com 1 L de lixiviado esterilizado previamente, sendo inoculadas concentrações conhecidas dos microrganismos Escherichia coli, Pseudomonas aeruginosa e Staphylococcus aureus, separadamente. Para cada microrganismo, foram montados doze reatores: quatro com pH 5, quatro com pH 7 e quatro com pH 9. De cada conjunto de reatores de mesmo pH, três foram inoculados com igual concentração de microrganismos, e um, considerado reator de controle, recebeu somente água deionizada e esterilizada. Desenvolveram-se, como esperado, as curvas de crescimento para as espécies estudadas. A espécie Pseudomonas aeruginosa se adaptou melhor (maior tempo de sobrevivência e concentrações mais elevadas) no pH neutro, enquanto que a espécie Escherichia coli se desenvolveu melhor no pH ácido. No pH 9, ambas as espécies foram inviabilizadas desde a primeira contagem. Para Staphylococcus aureus a concentração reduziu-se drasticamente nas primeiras 24 h para todos os valores de pH. Comparando-se os pH, essa espécie se adaptou melhor no pH neutro e depois no pH ácido. A partir dos estudos desenvolvidos, a codisposição de RSSS com RSU se mostrou uma técnica aceitável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present work proposes an investigation of the treatment given to memory in Pinter’s latest play, Ashes to Ashes, and of its function in the development of Pinter’s work. In order to do that, different aspects of the construction of meaning in the theatre are analysed, so that the specificity of its reception is determined. A survey of techniques used to present information, time and space in the theatre is made. The analytical drama, the history drama, and the theatre of the absurd are defined. After that, the evolution of the author’s work is analysed to determine what characterises Pinter’s work, while at the same time determining how his treatment of themes like menace, memory, and political oppression of the individual has evolved. Finally, a detailed survey of the apparently disconnected elements that are mentioned in Ashes to Ashes is made. The intertextual analysis allied to a study of the analytical form as used in this play enables the discovery of several layers of meaning. Through the connection established between the Holocaust and man’s fall followed by expulsion from Eden, Pinter examines the use of memory as a way of dealing with personal and collective responsibility and guilt. It is through the recovery of memory (also through writing) that the present can establish a critical and responsible relation with the past.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese focaliza a educação profissional a partir dos programas de formação profissional para surdos desenvolvidos em diferentes tempos e espaços educacionais, tanto em escolas como nos movimentos surdos. Esses programas atendem a uma determinada racionalidade que governa a conduta daqueles sujeitos para as quais as ações são diretamente pensadas, mas também constituem subjetividades entre os diferentes atores que se envolvem na elaboração, realização, avaliação desses programas. Essa racionalidade política vem engendrando um conjunto de procedimentos, de saberes e de poderes considerados desejáveis e úteis para a conformação de sujeitos que saibam dirigir suas condutas. Para realizar a análise dos programas de formação profissional, inspirei-me em algumas ferramentas analíticas utilizadas por Michel Foucault e outros autores que, inscrevendo-se em uma perspectiva pós-estruturalista, analisam o funcionamento da racionalidade política na Modernidade. Argumento que a formação de trabalhadores se constitui em um dispositivo de governamento que responde às necessidades e exigências de um sistema econômico, social, político e cultural que se preocupa com o risco do desemprego e da exclusão social de indivíduos identificados em grupos específicos e neste estudo, particularmente, dos surdos As unidades analíticas da pesquisa foram construídas a partir da captura das ênfases, das repetições, das articulações entre prescrições e procedimentos dentro dos programas. Essas unidades são apresentadas como tecnologias de governamento de si e dos outros que vêm conformando surdos trabalhadores disciplinados, reabilitados, integrados, autônomos, cidadãos e empreendedores como também almejando instituições articuladas no sentido do fortalecimento da sociedade civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento desse trabalho trata da construção discursiva do imigrante hispano-americano no Brasil, principalmente na região sul do país. O marco teórico que orienta esse estudo inclui-se na Análise da Discurso de linha francesa. Destacam-se aspectos importantes do trajeto discursivo que os imigrantes hispano-americanos produziram a partir da década de 60 e que se estende até a década de 90. Grande parte desse período coincide com o aparecimento das ditaduras militares em América Latina, demarcando, assim, um espaço histórico-discursivo específico. Da mesma forma, ressaltam-se implicações desse percurso imigrante quando discutimos a inserção na língua portuguesa, o que exige uma “negociação” com a língua materna espanhol. Podemos identificar esse movimento quando encontramos resistências expostas no âmbito enunciativo. Quando assinalamos esses dois pontos: inserção histórico-discursiva e inserção na língua portuguesa, nos apoiamos em dois conceitos desenvolvidos por Pêcheux em sua teoria discursiva, sendo eles: real da história e real da língua, os quais comportam aspectos de um indecifrável que tanto na história como na língua produzem fendas, que traduzidas enquanto falhas permitem oxigenação e deslocamento de significações. Finalmente e, conforme o quadro aqui exposto, cabe dizer que o fio que orienta nossa pesquisa procura elucidação sobre o processo que o imigrante hispano-americano realiza nesse acontecimento migratório e nele identificar os elementos num discurso que o represente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Expondo os planos: as exposições universais do século XX e seus planos urbanísticos. Esta dissertação versará sobre as exposições de caráter universal, expoentes da cultura e do pensamento de uma respectiva época. Mais precisamente abordará seus planejamentos e seus projetos urbanos e a capacidade destes eventos de absorverem ou gerarem e propagarem idéias e pensamentos. Desta forma, tomando-se como base às exposições universais e as teorias urbanísticas buscar-se-á fazer um cruzamento que evidencie aspectos das relações entre os planos urbanísticos de algumas das mais significativas exposições universais do século XX (Exposição Internacional de Barcelona 1929, Internacional de Paris 1937, Universal de Bruxelas 1958, Universal de Sevilha 1992, Internacional de Lisboa 1998 e Universal de Hannover 2000) e os principais pensamentos urbanísticos desenvolvidos durante este período. Tudo isso dentro de um contexto onde os pensamentos dominantes, as ideologias e os conceitos sofreram grandes e constantes mudanças, mas onde o aspecto da internacionalização ou universalização está sempre presente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mesmo depois de todas as novidades tecnológicas nos últimos anos, ainda existem muitos sistemas desenvolvidos com tecnologias antigas, muitas vezes ultrapassadas e obsoletas denominados sistemas legados. O problema do bug do ano 2000 funcionou como um excelente despertador para o fato de que não podemos nos esquecer do grande número de sistemas ainda em produção, e que são importantes para a empresa. Não se pode simplesmente descartar estes sistemas e é muito difícil migrar sistemas legados rapidamente para novas plataformas. Mais ainda, as regras de negócio que regem qualquer empresa são muito complexas para poderem ser modeladas e remodeladas em poucos meses e em seguida automatizadas porque a maior dificuldade em desenvolver sistemas não é escrever código nesta ou naquela linguagem, mas entender o que o sistema deve fazer. Este trabalho enfoca uma solução possível para o problema referente à migração de sistemas legados: a tradução destes sistemas legados da forma mais automatizada possível para que possam se beneficiar das novas tecnologias existentes deve ser o resultado final produzido. Assim, o objetivo desta dissertação é a investigação do problema de migração de sistemas legados e suas soluções assim como o desenvolvimento de uma ferramenta que traduz um sistema legado escrito na linguagem COBOL para PROGRESS, visando o aproveitamento do código e principalmente o aproveitamento de soluções de análise e projeto, que exigiram bastante esforço para serem elaboradas e poderiam ser reutilizadas em novos desenvolvimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o principal objetivo desta pesquisa foi contribuir com a produção de informações destinadas a orientar o planejamento de espaços abertos junto a edificações de instituições para idosos, através do estudo das necessidades de seus usuários. A busca destas informações partiu da investigação da realidade vigente no município de Porto Alegre-RS, entre as instituições que atendem o público idoso de menor poder aquisitivo. Para isso, foram desenvolvidos dois estudos de campo. Visando obter uma visão geral sobre a situação dos espaços abertos nas instituições, o primeiro estudo consistiu de um levantamento preliminar, onde foram analisadas características fisicas de áreas externas existentes em uma amostra de doze instituições distribuídas na zona urbana do município. Os resultados deste estudo revelaram, em alguns casos, áreas externas muito limitadas e, na maioria dos casos, uma qualidade bastante fnsatisfatória dos espaços abertos disponíveis. O segundo estudo foi um estudo de caso múltiplo envolvendo duas instituições selecionadas dentre aquelas estudadas no levantamento preliminar. Partindo da abordagem utilizada nos estudos da interfuce comportamento humano e ambiente, referenciados na Psicologia Ambiental, este estudo teve por objetivo investigar as relações entre os espaços abertos das instituições e seus usuários, utilizando, como fontes de evidência, levantamentos fisicos, registros de arquivos, entrevistas e observações. Em suma, os resultados deste trabalho revelaram que: a) a presença de espaços abertos é considerada importante pelos idosos e pelos demais personagens das instituições; b) os idosos raramente visitam outros espaços abertos fora da instituição c) a qualidade dos espaços abertos disponíveis contribui positivamente com a satisfução dos idosos em relação à instituição, com a percepção dos idosos sobre a importância dos espaços abertos e com o tempo de permanência dos mesmos nas áreas externas; d) os idosos tendem a perceber o pátio predominantemente como um local de atividade; e) vegetação e Íllfta- restrutura para lazer ativo são as principais características associadas ao "pátio ideal" pelos idosos; f) a vegetação é avaliada positivamente pelos idosos, sobretudo, por seu caráter ornamental e produtivo; g) idosos consideram importante a possibilidade de cultivarem plantas no pátio da instituição; h) as características que mais influenciam a utilização do pátio pelos idosos são: acessibilidade e segurança, proximidade das edificações, liberdade de acesso, conforto, presença de elementos de interesse, possibilidade de desenvolvimento deatividades, e privacidade. Também se verificou que administradores, funcionários e visitantes não percebem o pátio da instituição como um local para seu próprio proveito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.