999 resultados para Abordagem baseada em tarefas
Resumo:
Este trabalho propõe-se a estudar os sentidos das preposições essenciais do português, a partir da Teoria da Enunciação de Émile Benveniste. As preposições consideradas advêm de um corpus de dados retirado de gramáticas contemporâneas do português. Ao abordar a descrição do sentido das preposições nas gramáticas e estudos lingüísticos brasileiros, constatamos que essa descrição é baseada em noções paradigmáticas constantes e genéricas, tais como espaço e tempo. A partir dos textos de análise de Benveniste, constatamos que o estudo da língua depende da consideração de uma dupla sintaxe, a saber, sintaxe da língua e sintaxe da enunciação, de uma dupla definição de sentido, a saber, valor e referência, de uma dupla definição de unidade, a saber, locução e enunciado e de uma dupla definição de língua, a saber, língua enquanto sistema de signos (língua) e língua enquanto comunicação intersubjetiva (língua-discurso). Constatamos ainda que a dupla consideração do sentido depende da postulação de uma unidade intermediária entre língua e língua-discurso, dita locução ou signo-palavra. Além disso, tal estudo nos mostra que uma metodologia de análise do sentido depende da simultânea consideração das relações de dissociação de forma e integração de sentido entre signos-palavra. A partir do estudo dos textos da Teoria da Enunciação, observamos que, para o estudo do sentido das preposições, devemos considerar que o significado genérico e repetível da locução na língua é determinado pela referência única e irrepetível da locução no enunciado Assim, as noções genéricas de espaço e tempo das preposições enquanto signo transformam-se em sentidos particulares a partir das relações sintagmático-semânticas de integração da preposição enquanto signopalavra. Para estudar os sentidos das preposições, construímos um corpus de fatos constituído de textos extraídos da versão online do jornal Zero Hora do ano de 2004. Com o auxílio do aplicativo Wordsmith, identificamos a estrutura de locuções da língua enquanto sistema de signos. A partir de 24 análises enunciativas das preposições, constatamos que as noções de espaço ou de tempo das preposições são determinadas pela posição singular que o locutor e, por vezes, o alocutário ocupa em cada enunciado, ou seja, pela sintaxe da enunciação.
Resumo:
A maioria dos trabalhos empíricos atuais utiliza somente os diferenciais de produtividade para estimar o efeito Balassa-Samuelson. Porém, o modelo em que se baseia esta abordagem assume algumas hipóteses importantes que podem ser relaxadas. A primeira parte deste trabalho busca estimar o efeito Balassa-Samuelson relaxando a hipótese de que o setor produtor de bens não-comercializáveis tem o mesmo tamanho em todos os países do mundo. Posteriormente, utilizando uma abordagem proposta por Rodrik (2007), os resultados obtidos na estimação do efeito Balassa-Samuelson são utilizados para calcular um índice de desequilíbrio do câmbio real. Por fim, o efeito de desequilíbrios cambiais sobre o crescimento econômico é estimado, verificando se os resultados encontrados por Rodrik (2007) se mantêm.
Resumo:
Esta tese sustenta que a implantação de modelos híbridos de governança em organizações ou sistemas que antes eram governados por tipos hierarquizados cria novos custos de transação e que isso não impede a continuidade nem a expansão desse modelo porque a sua escolha não é unicamente baseada na minimização dos custos de transação, mas também nos efeitos de performance proporcionados. Para chegar a essa conclusão, investigaram-se as características das transações referentes à contratação de serviços hospitalares pela Secretaria de Estado da Saúde de São Paulo, os custos decorrentes dessas características associados aos problemas típicos de governança, e o desempenho das organizações após a implantação do modelo. Para estabelecer tal relação, realizou-se um estudo comparativo entre três hospitais públicos estaduais governados por Organizações Sociais de Saúde – OSS – e três hospitais da administração direta, com portes e perfis assistenciais similares. Foram entrevistados os atores-chave dos hospitais e da área responsável pela gestão dos contratos com as OSS e analisados relatórios e os dados oficiais do Ministério da Saúde e da Secretaria Estadual de Saúde sobre o desempenho dos hospitais escolhidos. Concluiu-se que a governança das OSS incrementou os custos de transação em cerca de 1% dos gastos totais, mas que os hospitais segundo esse modelo apresentaram um desempenho altamente satisfatório em comparação com o grupo de hospitais da administração direta. Outra descoberta do estudo é que a introdução do modelo das OSS reduziu, nesses hospitais, os níveis de incerteza comportamental e ambiental, que ficaram significativamente mais baixas do que os percebidos pelos hospitais da administração direta.
Resumo:
Na última década muitos esforços têm sido feitos em verificação formal de propriedades de agentes do cálculo-π. Uma dessas propriedades é a equivalência observacional, que serve para determinar se um processo é equivalente a sua especificação. Contudo, a verificação de equivalência observacional não é um problema trivial. A maioria dos algoritmos destinados a verificação de equivalência são baseados na construção de sistemas de transições rotuladas (π-autômatos). O principal problema com essa abordagem é o grande número de estados envolvidos podendo chegar a um número infinito. Montanari e Pistore mostram que é possível gerar π-autômatos finitos para agentes-π e é possível reduzir a quantidade de estados desses π-autômatos, através da identificação dos nomes ativos. Um nome é semanticamente ativo em um agente se ele pode ser executado de forma observável por ele. Este é um trabalho de análise estática, que tem por objetivo coletar os possíveis nomes ativos contidos em expressões-π, utilizando para isso um sistema de tipos. A vantagem da utilização de sistemas de tipos em relação a outras formas de análise estática é que sistemas de tipos são sistemas lógicos, logo as técnicas de prova da lógica podem ser aproveitadas no estudo de propriedades de sistemas de tipos. Além disso sistemas de tipos são definidos através da estrutura sintática de expressões, facilitando assim as provas por indução estrutural. Assim a principal contribuição deste trabalho é a elaboração do Active-Base-π, um sistema de tipos para a coleta de nomes ativos de expressões-π.
Resumo:
A presente dissertação apresenta a análise dos classificadores nominais específicos chineses, embasada na Lingüística Cognitiva, tendo como arcabouço teórico a Semântica Cognitiva Experiencialista e a Teoria Prototípica, visando a revelar as motivações semânticas subjacentes e as propriedades de categorização dos classificadores nominais chineses, quando colocados junto a substantivos. Foram analisados todos os classificadores nominais, a partir dos modelos da Semântica Cognitiva Experiencialista, baseados em Lakoff (1987). A amostragem envolveu dados retirados de livros, revistas e internet e da própria experiência vivencial de pesquisadora. Estão descritas as análises de dez classificadores, selecionados pela relevância cultural e potencial de explicitação dos aspectos discutidos. O estudo revela que a combinação de classificadores com substantivos não é arbitrária, como alguns lingüistas chineses acreditam, mas, sim, um reflexo da interação humana com o mundo objetivo, baseada na cognição.
Resumo:
Este trabalho analisa os efeitos econômicos da competição tributária regional a partir de uma metodologia de equilíbrio geral computável. O objetivo é investigar se a competição tributária regional pode ser consistente com um equilíbrio welfare-improving quando as externalidades fiscais, subjacentes às mudanças estratégicas na política tributária dos governos regionais e às regras do federalismo fiscal vigente no Brasil, são plenamente assimiladas nos payoffs dos agentes econômicos. Para tanto, foi elaborado um modelo inter-regional de equilíbrio geral computável que divide a economia brasileira em duas regiões integradas, o Rio Grande do Sul e o Restante do Brasil. Este modelo foi utilizado para implementar dois experimentos de simulação sobre políticas contra-factuais de competição fiscal. O primeiro experimento avalia os efeitos de uma política regional de incentivo realizada pelo governo estadual gaúcho, baseada na renúncia tributária do ICMS, visando a atração de novos investimentos. Este experimento considera que os novos investimentos são exógenos à região e ao país como um todo e não se assume resposta estratégica do governo do Restante do Brasil. Os resultados mostram que a política é welfare-improving para as duas regiões e gera um retorno tributário líquido positivo para o governo do Rio Grande do Sul. Contudo, o efeito sobre as finanças do governo do Restante do Brasil é negativo, resultado que pode ser visto como um fator de incentivo para uma resposta política de competição fiscal. O segundo experimento avalia os efeitos de políticas de competição tributária regional entre os governos estaduais, assumindo-se que as alíquotas do ICMS são utilizadas como instrumentos estratégicos num jogo não cooperativo para atração de fatores produtivos. O experimento foi implementado para três fechamentos fiscais distintos com a finalidade de avaliar a sensibilidade dos resultados. O primeiro fechamento assume um regime fiscal do tipo soft budget constraint pelo qual o déficit orçamentário é a principal variável endógena para acomodar os custos da competição; o segundo fechamento assume um regime fiscal do tipo hard budget constraint pelo qual o consumo dos governos regionais (provisão de bens públicos) é a principal variável endógena; o terceiro fechamento considera o governo federal como um terceiro player no jogo de competição tributária regional e assume que a alíquota do imposto sobre a renda é a principal variável endógena de ajuste fiscal para capturar o papel das ligações verticais via mecanismos de transferências. Independente do fechamento fiscal, constata-se que a competição tributária gera um equilíbrio welfare-improving, mas o nível dos efeitos de bem-estar é bastante diferenciado entre os fechamentos. Constata-se ainda que o equilíbrio de Nash é do tipo race-to-the-bottom para as alíquotas de ICMS nos dois primeiros fechamentos, mas é race-to-the-top no terceiro porque a estratégia ótima do governo federal força os governos regionais a um equilíbrio com alíquotas de ICMS mais elevadas. As externalidades fiscais têm um papel crucial nos resultados encontrados, particularmente no segundo experimento, pois aliviam a necessidade de ajuste na provisão de bens públicos provocada pelo equilíbrio race-to-the-bottom e, assim, permitem que os ganhos de bem-estar do consumo privado superem as perdas decorrentes da redução na provisão de bens públicos.
Resumo:
Este estudo visa investigar a relação entre o desenvolvimento cognitivo e a evolução do conceito de morte, identificar e descrever as características do conceito de morte em três diferentes níveis de desenvolvimento cognitivo. As áreas abordadas na revisão da literatura incluíram as bases teóricas e os achados empíricos relativos à evolução do conceito de morte e ao desenvolvimento cognitivo. Um instrumento de sondagem do conceito de morte foi especialmente elaborado para avaliar três dimensões - extensão, significado, duração - do conceito de morte biológica. Para a avaliação do desenvolvimento cognitivo, tarefas em moldes piagetianos foram empregadas. Com base nos resultados obtidos conclui-se que há uma relação entre o desenvolvimento cognitivo e a evolução do conceito de morte, tal como avaliado pelo instrumento de sondagem do conceito de morte. Três níveis do conceito de morte foram identificados como sendo descritivos do pensamento das crianças de diferentes unidades - subperíodo pré-operacional, subperíodo operacional concreto e período operacional formal - de desenvolvimento cognitivo.
Resumo:
BARBOSA, André F. ; SOUZA, Bryan C. ; PEREIRA JUNIOR, Antônio ; MEDEIROS, Adelardo A. D.de, . Implementação de Classificador de Tarefas Mentais Baseado em EEG. In: CONGRESSO BRASILEIRO DE REDES NEURAIS, 9., 2009, Ouro Preto, MG. Anais... Ouro Preto, MG, 2009
Resumo:
This work presents a hybrid approach for the supplier selection problem in Supply Chain Management. We joined decision-making philosophy by researchers from business school and researchers from engineering in order to deal with the problem more extensively. We utilized traditional multicriteria decision-making methods, like AHP and TOPSIS, in order to evaluate alternatives according decision maker s preferences. The both techiniques were modeled by using definitions from the Fuzzy Sets Theory to deal with imprecise data. Additionally, we proposed a multiobjetive GRASP algorithm to perform an order allocation procedure between all pre-selected alternatives. These alternatives must to be pre-qualified on the basis of the AHP and TOPSIS methods before entering the LCR. Our allocation procedure has presented low CPU times for five pseudorandom instances, containing up to 1000 alternatives, as well as good values for all considered objectives. This way, we consider the proposed model as appropriate to solve the supplier selection problem in the SCM context. It can be used to help decision makers in reducing lead times, cost and risks in their supply chain. The proposed model can also improve firm s efficiency in relation to business strategies, according decision makers, even when a large number of alternatives must be considered, differently from classical models in purchasing literature
Resumo:
This study evaluates the level of accessibility for people with visual impairment (blindness and low vision) hotels in the city of Natal-RN, Brazil, and provides principles, guidelines and means of projective make hotels accessible, to promote comfort, autonomy and security of these people. We used a qualitative research methodology and quantitative trait descriptive, analytical and interpretive. Was taken as a base for field studies Ergonomic Analysis of Work, beginning with a study of the demands of accessibility of hotels and analyzing the modeling activity in these establishments through the application of interactional and observational techniques, such as film, photographic records, conversational actions and observation protocols. A protocol was developed and applied to evaluate the compliance of accessibility of hotels in the face of Brazilian technical standard NBR 9050 (2004). We used methods of Cognitive Task Analysis (CTA) associated with simulated activities to identify the processes of decision making and analyzing the observables of the activities performed by people with visual impairment (POS). Interviews were conducted with people who are blind and low vision in various cities in order to meet accessibility difficulties they faced in hotels and recommendations for improvement that they indicate. The mapping results showed that of 16 hotels 4 and 5 star studied in Natal-RN, reached only 7% of the 50 items of the protocol, while none of them reached 70% of the items. About the results obtained in simulated activities and analyzed from the ATC, we saw that the hotel where it was performed this step shows a need to adequately address the guests with visual impairments
Resumo:
Simulations based on cognitively rich agents can become a very intensive computing task, especially when the simulated environment represents a complex system. This situation becomes worse when time constraints are present. This kind of simulations would benefit from a mechanism that improves the way agents perceive and react to changes in these types of environments. In other worlds, an approach to improve the efficiency (performance and accuracy) in the decision process of autonomous agents in a simulation would be useful. In complex environments, and full of variables, it is possible that not every information available to the agent is necessary for its decision-making process, depending indeed, on the task being performed. Then, the agent would need to filter the coming perceptions in the same as we do with our attentions focus. By using a focus of attention, only the information that really matters to the agent running context are perceived (cognitively processed), which can improve the decision making process. The architecture proposed herein presents a structure for cognitive agents divided into two parts: 1) the main part contains the reasoning / planning process, knowledge and affective state of the agent, and 2) a set of behaviors that are triggered by planning in order to achieve the agent s goals. Each of these behaviors has a runtime dynamically adjustable focus of attention, adjusted according to the variation of the agent s affective state. The focus of each behavior is divided into a qualitative focus, which is responsible for the quality of the perceived data, and a quantitative focus, which is responsible for the quantity of the perceived data. Thus, the behavior will be able to filter the information sent by the agent sensors, and build a list of perceived elements containing only the information necessary to the agent, according to the context of the behavior that is currently running. Based on the human attention focus, the agent is also dotted of a affective state. The agent s affective state is based on theories of human emotion, mood and personality. This model serves as a basis for the mechanism of continuous adjustment of the agent s attention focus, both the qualitative and the quantative focus. With this mechanism, the agent can adjust its focus of attention during the execution of the behavior, in order to become more efficient in the face of environmental changes. The proposed architecture can be used in a very flexibly way. The focus of attention can work in a fixed way (neither the qualitative focus nor the quantitaive focus one changes), as well as using different combinations for the qualitative and quantitative foci variation. The architecture was built on a platform for BDI agents, but its design allows it to be used in any other type of agents, since the implementation is made only in the perception level layer of the agent. In order to evaluate the contribution proposed in this work, an extensive series of experiments were conducted on an agent-based simulation over a fire-growing scenario. In the simulations, the agents using the architecture proposed in this work are compared with similar agents (with the same reasoning model), but able to process all the information sent by the environment. Intuitively, it is expected that the omniscient agent would be more efficient, since they can handle all the possible option before taking a decision. However, the experiments showed that attention-focus based agents can be as efficient as the omniscient ones, with the advantage of being able to solve the same problems in a significantly reduced time. Thus, the experiments indicate the efficiency of the proposed architecture
Resumo:
Currently, one of the biggest challenges for the field of data mining is to perform cluster analysis on complex data. Several techniques have been proposed but, in general, they can only achieve good results within specific areas providing no consensus of what would be the best way to group this kind of data. In general, these techniques fail due to non-realistic assumptions about the true probability distribution of the data. Based on this, this thesis proposes a new measure based on Cross Information Potential that uses representative points of the dataset and statistics extracted directly from data to measure the interaction between groups. The proposed approach allows us to use all advantages of this information-theoretic descriptor and solves the limitations imposed on it by its own nature. From this, two cost functions and three algorithms have been proposed to perform cluster analysis. As the use of Information Theory captures the relationship between different patterns, regardless of assumptions about the nature of this relationship, the proposed approach was able to achieve a better performance than the main algorithms in literature. These results apply to the context of synthetic data designed to test the algorithms in specific situations and to real data extracted from problems of different fields
Resumo:
The exponential growth in the applications of radio frequency (RF) is accompanied by great challenges as more efficient use of spectrum as in the design of new architectures for multi-standard receivers or software defined radio (SDR) . The key challenge in designing architecture of the software defined radio is the implementation of a wide-band receiver, reconfigurable, low cost, low power consumption, higher level of integration and flexibility. As a new solution of SDR design, a direct demodulator architecture, based on fiveport technology, or multi-port demodulator, has been proposed. However, the use of the five-port as a direct-conversion receiver requires an I/Q calibration (or regeneration) procedure in order to generate the in-phase (I) and quadrature (Q) components of the transmitted baseband signal. In this work, we propose to evaluate the performance of a blind calibration technique without additional knowledge about training or pilot sequences of the transmitted signal based on independent component analysis for the regeneration of I/Q five-port downconversion, by exploiting the information on the statistical properties of the three output signals
Resumo:
In multi-robot systems, both control architecture and work strategy represent a challenge for researchers. It is important to have a robust architecture that can be easily adapted to requirement changes. It is also important that work strategy allows robots to complete tasks efficiently, considering that robots interact directly in environments with humans. In this context, this work explores two approaches for robot soccer team coordination for cooperative tasks development. Both approaches are based on a combination of imitation learning and reinforcement learning. Thus, in the first approach was developed a control architecture, a fuzzy inference engine for recognizing situations in robot soccer games, a software for narration of robot soccer games based on the inference engine and the implementation of learning by imitation from observation and analysis of others robotic teams. Moreover, state abstraction was efficiently implemented in reinforcement learning applied to the robot soccer standard problem. Finally, reinforcement learning was implemented in a form where actions are explored only in some states (for example, states where an specialist robot system used them) differently to the traditional form, where actions have to be tested in all states. In the second approach reinforcement learning was implemented with function approximation, for which an algorithm called RBF-Sarsa($lambda$) was created. In both approaches batch reinforcement learning algorithms were implemented and imitation learning was used as a seed for reinforcement learning. Moreover, learning from robotic teams controlled by humans was explored. The proposal in this work had revealed efficient in the robot soccer standard problem and, when implemented in other robotics systems, they will allow that these robotics systems can efficiently and effectively develop assigned tasks. These approaches will give high adaptation capabilities to requirements and environment changes.
Resumo:
This paper aims to describe the construction and validation of a notebook of activities whose content is a didactic sequence that makes use of the study of ancient numbering systems as compared to the object of our decimal positional numbering system Arabic. This is on the assumption that the comparison with a system different from our own might provide a better understanding of our own numbering system, but also help in the process of arithmetic operations of addition, subtraction and multiplication, since it will force us to think in ways that are not routinely object of our attention. The systems covered in the study were the Egyptian hieroglyphic system of numbering, the numbering system Greek alphabet and Roman numbering system, always compared to our numbering system. The following teachung is presented structured in the form of our activities, so-called exercise set and common tasks around a former same numbering system. In its final stage of preparation, the sequence with the participation of 26 primary school teachers of basic education