231 resultados para Comunicação emTempo Real
Resumo:
Os avanços nas Interfaces Cérebro-máquina, resultantes dos avanços no tratamento de sinal e da inteligência artificial, estão a permitir-nos aceder à atividade cerebral, descodificá-la, e usála para comandar dispositivos, sejam eles braços artificiais ou computadores. Isto é muito mais importante quando os utilizadores são pessoas que perderam a capacidade de comunicar, embora mantenham as suas capacidades cognitivas intactas. O caso mais extremo desta situação é o das pessoas afetadas pela Síndrome de Encarceramento. Este trabalho pretende contribuir para a melhoria da qualidade de vida das pessoas afetadas por esta síndrome, disponibilizando-lhes um meio de comunicação adaptado às suas limitações. É essencialmente um estudo de usabilidade aplicada a um tipo de utilizador extremamente diminuído na sua capacidade de interação. Nesta investigação começamos por compreender a Síndrome de Encarceramento e as limitações e capacidades das pessoas afetadas por ela. Abordamos a neuroplasticidade, o que é, e em que medida é importante para a utilização das Interfaces Cérebro-máquina. Analisamos o funcionamento destas interfaces, e os fundamentos científicos que o suportam. Finalmente, com todo este conhecimento em mãos, investigamos e desenvolvemos métodos que nos permitissem otimizar as limitadas capacidades do utilizador na sua interação com o sistema, minimizando o esforço e maximizando o desempenho. Foi para o efeito desenhado e implementado um protótipo que nos permitisse validar as soluções encontradas.
Resumo:
A satisfação do utente na comunicação com profissionais de saúde é um indicador de qualidade dos serviços ou instituições. Na literatura não encontramos instrumentos padronizados e validados, que avaliem a satisfação do utente na comunicação com os profissionais de saúde. O presente estudo tem como objetivo construir e validar um instrumento para avaliar a satisfação do utente na comunicação com os profissionais de saúde. Desenvolvemos este estudo em três ciclos. Um primeiro, revisão da literatura, para identificar dimensões e itens da comunicação interpessoal na saúde. No segundo ciclo, conduzimos um método de Delphi modificado em três rondas, com recurso à plataforma informática de questionários Survey Monkey, no qual participou um painel de 25 peritos; estabelecemos como critério mínimo de retenção para a ronda seguinte os itens que recebessem 70% do consenso por parte do painel. Após as três rondas, obtivemos um instrumento com seis dimensões comunicacionais (comunicação verbal, comunicação não verbal, empatia, respeito, resolução de problemas e material de apoio), vinte e cinco itens específicos, e mais seis dimensões genéricas, que avaliam cada uma das dimensões. No terceiro ciclo avaliamos as características psicométricas, em termos de sensibilidade, validade do construto e fidelidade, numa amostra de 348 participantes. Os resultados mostram que todas as categorias de resposta estavam representadas em todos os itens. Validade do construto- a análise fatorial identificou uma solução de seis componentes que explicam 71% da variância total. Fiabilidade - os valores da correlação item-total variam entre 0,387 e 0,722, existindo uma correlação positiva moderada a forte. O valor de alfa de Cronbach (α=0,928) indica que a consistência interna é excelente. O instrumento construído apresenta boas propriedades psicométricas. Fica assim disponível uma nova ferramenta para auxiliar na gestão e no processo de planeamento necessários ao incremento da qualidade nos serviços e instituições de saúde.
Resumo:
O ambiente de mudança e de incerteza, as novas tecnologias de informação subjacentes aos actuais sistemas de informação, a desmaterialização dos documentos, a produção de informação financeira on-line em tempo real, o comércio electrónico e os escândalos financeiros (sobretudo a partir do início dos anos 2000) – tudo isto colocou em causa o modelo tradicional de auditoria. A auditoria contínua surge, há cerca de duas décadas, como um novo paradigma de auditoria susceptível de dar resposta às novas necessidades e ao novo contexto. É, pois, um tema recente, actualmente objecto de grande investigação e interesse, quer da parte de académicos quer de profissionais. O presente trabalho aborda as principais inovações da auditoria contínua, os seus métodos e processos específicos, concluindo que a auditoria irá caminhar certamente no sentido deste novo paradigma, apesar dos obstáculos e dificuldades que uma mudança de tal dimensão enfrentará, exigindo alterações substanciais ao nível da regulação da profissão e do estatuto do auditor.
Resumo:
Uma vez que o meu percurso profissional no Teatro tem sido desenvolvido enquanto actriz, considerei que a apresentação de um trabalho de natureza profissional para o requerimento do título de especialista nesta área deveria incidir sobre a Interpretação em Teatro. O espectáculo escolhido como exemplificativo do meu percurso remonta a 2009 – Otelo de William Shakespeare. A primeira parte da presente comunicação pretende dar conta do processo de trabalho seguido pela encenação de Kuniaki Ida no Teatro do Bolhão, e cuja equipa integrei como intérprete no papel de Emília. Nela se dão conta das várias etapas – do trabalho de mesa ao levantamento das cenas – que conduziram ao espectáculo apresentado primeiramente no Porto (ACE) e depois no Teatro da Trindade, Teatro Municipal de Vila Real e Casa das Artes de Famalicão. A segunda parte é dedicada a uma reflexão sobre o trabalho do actor, processos e dúvidas evidenciadas por este espectáculo em particular. Apesar de o tempo para a reflexão e o debate sobre processos ser muito escasso durante a preparação de um espectáculo, não há trabalho que não despolete um questionamento no actor sobre o melhor modo de aproximação à criação da personagem. Salvaguardamos aqui o facto de estarmos a tratar da criação num contexto logocêntrico, criação de um espectáculo a partir de um texto dramático que inclui intriga, acção e personagens, e não outro tipo de abordagem teatral que suprime os princípios da dramaturgia clássica.
Resumo:
The accuracy of the Navigation Satellite Timing and Ranging (NAVSTAR) Global Positioning System (GPS) measurements is insufficient for many outdoor navigation tasks. As a result, in the late nineties, a new methodology – the Differential GPS (DGPS) – was developed. The differential approach is based on the calculation and dissemination of the range errors of the GPS satellites received. GPS/DGPS receivers correlate the broadcasted GPS data with the DGPS corrections, granting users increased accuracy. DGPS data can be disseminated using terrestrial radio beacons, satellites and, more recently, the Internet. Our goal is to provide mobile platforms within our campus with DGPS data for precise outdoor navigation. To achieve this objective, we designed and implemented a three-tier client/server distributed system that establishes Internet links with remote DGPS sources and performs campus-wide dissemination of the obtained data. The Internet links are established between data servers connected to remote DGPS sources and the client, which is the data input module of the campus-wide DGPS data provider. The campus DGPS data provider allows the establishment of both Intranet and wireless links within the campus. This distributed system is expected to provide adequate support for accurate (submetric) outdoor navigation tasks.
Resumo:
In a real world multiagent system, where the agents are faced with partial, incomplete and intrinsically dynamic knowledge, conflicts are inevitable. Frequently, different agents have goals or beliefs that cannot hold simultaneously. Conflict resolution methodologies have to be adopted to overcome such undesirable occurrences. In this paper we investigate the application of distributed belief revision techniques as the support for conflict resolution in the analysis of the validity of the candidate beams to be produced in the CERN particle accelerators. This CERN multiagent system contains a higher hierarchy agent, the Specialist agent, which makes use of meta-knowledge (on how the con- flicting beliefs have been produced by the other agents) in order to detect which beliefs should be abandoned. Upon solving a conflict, the Specialist instructs the involved agents to revise their beliefs accordingly. Conflicts in the problem domain are mapped into conflicting beliefs of the distributed belief revision system, where they can be handled by proven formal methods. This technique builds on well established concepts and combines them in a new way to solve important problems. We find this approach generally applicable in several domains.
Resumo:
Consider the problem of scheduling a task set τ of implicit-deadline sporadic tasks to meet all deadlines on a t-type heterogeneous multiprocessor platform where tasks may access multiple shared resources. The multiprocessor platform has m k processors of type-k, where k∈{1,2,…,t}. The execution time of a task depends on the type of processor on which it executes. The set of shared resources is denoted by R. For each task τ i , there is a resource set R i ⊆R such that for each job of τ i , during one phase of its execution, the job requests to hold the resource set R i exclusively with the interpretation that (i) the job makes a single request to hold all the resources in the resource set R i and (ii) at all times, when a job of τ i holds R i , no other job holds any resource in R i . Each job of task τ i may request the resource set R i at most once during its execution. A job is allowed to migrate when it requests a resource set and when it releases the resource set but a job is not allowed to migrate at other times. Our goal is to design a scheduling algorithm for this problem and prove its performance. We propose an algorithm, LP-EE-vpr, which offers the guarantee that if an implicit-deadline sporadic task set is schedulable on a t-type heterogeneous multiprocessor platform by an optimal scheduling algorithm that allows a job to migrate only when it requests or releases a resource set, then our algorithm also meets the deadlines with the same restriction on job migration, if given processors 4×(1+MAXP×⌈|P|×MAXPmin{m1,m2,…,mt}⌉) times as fast. (Here MAXP and |P| are computed based on the resource sets that tasks request.) For the special case that each task requests at most one resource, the bound of LP-EE-vpr collapses to 4×(1+⌈|R|min{m1,m2,…,mt}⌉). To the best of our knowledge, LP-EE-vpr is the first algorithm with proven performance guarantee for real-time scheduling of sporadic tasks with resource sharing on t-type heterogeneous multiprocessors.
Resumo:
Task scheduling is one of the key mechanisms to ensure timeliness in embedded real-time systems. Such systems have often the need to execute not only application tasks but also some urgent routines (e.g. error-detection actions, consistency checkers, interrupt handlers) with minimum latency. Although fixed-priority schedulers such as Rate-Monotonic (RM) are in line with this need, they usually make a low processor utilization available to the system. Moreover, this availability usually decreases with the number of considered tasks. If dynamic-priority schedulers such as Earliest Deadline First (EDF) are applied instead, high system utilization can be guaranteed but the minimum latency for executing urgent routines may not be ensured. In this paper we describe a scheduling model according to which urgent routines are executed at the highest priority level and all other system tasks are scheduled by EDF. We show that the guaranteed processor utilization for the assumed scheduling model is at least as high as the one provided by RM for two tasks, namely 2(2√−1). Seven polynomial time tests for checking the system timeliness are derived and proved correct. The proposed tests are compared against each other and to an exact but exponential running time test.
Resumo:
Dissertação de Mestrado apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação do Prof. Paulo Alexandre Pires
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças sobre a orientação do Doutor José Campos Amorim.
Resumo:
Dissertação de Mestrado apresentada ao Instituto Superior de Contabilidade e Administração do Porto, para obtenção do grau de Mestre em Marketing Digital, sob orientação da Prof. Sandrina Teixeira
Resumo:
Relatório de Estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação da Prof. Doutora Sandrina Teixeira
Resumo:
Dissertação de Mestrado Apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Empreendedorismo e Internacionalização, sob orientação do Mestre Adalmiro Álvaro Malheiro de Castro Andrade Pereira
Resumo:
O uso da tecnologia tem crescido nas últimas décadas nas mais diversas áreas, seja na indústria ou no dia-a-dia, e é cada vez mais evidente os benefícios que traz. No desporto não é diferente. Cada dia surgem novos desenvolvimentos objetivando a melhoria do desempenho dos praticantes de atividades físicas, possibilitando atingir resultados nunca antes pensados. Além disto, a utilização da tecnologia no desporto permite a obtenção de dados biomecânicos que podem ser utilizados tanto no treinamento quando na melhoria da qualidade de vida dos atletas auxiliando na prevenção de lesões, por exemplo. Deste modo, o presente projeto se aplica na área do desporto, nomeadamente, na modalidade do surfe, onde a ausência de trabalhos científicos ainda é elevada, aliando a tecnologia eletrônica ao desporto para quantificar informações até então desconhecidas. Três fatores básicos de desempenho foram levantados, sendo eles: equilíbrio, posicionamento dos pés e movimentação da prancha de surfe. Estes fatores levaram ao desenvolvimento de um sistema capaz de medi-los dinamicamente através da medição das forças plantares e da rotação da prancha de surfe. Além da medição dos fatores, o sistema é capaz de armazenar os dados adquiridos localmente através de um cartão de memória, para posterior análise; e também enviá-los através de uma comunicação sem fio, permitindo a visualização do centro de pressões plantares; dos ângulos de rotação da prancha de surfe; e da ativação dos sensores; em tempo real. O dispositivo consiste em um sistema eletrônico embarcado composto por um microcontrolador ATMEGA1280; um circuito de aquisição e condicionamento de sinal analógico; uma central inercial; um módulo de comunicação sem fio RN131; e um conjunto de sensores de força Flexiforce. O firmware embarcado foi desenvolvido em linguagem C. O software Matlab foi utilizado para receção de dados e visualização em tempo real. Os testes realizados demostraram que o funcionamento do sistema atende aos requisitos propostos, fornecendo informação acerca do equilíbrio, através do centro de pressões; do posicionamento dos pés, através da distribuição das pressões plantares; e do movimento da prancha nos eixos pitch e roll, através da central inercial. O erro médio de medição de força verificado foi de -0.0012 ± 0.0064 N, enquanto a mínima distância alcançada na transmissão sem fios foi de 100 m. A potência medida do sistema foi de 330 mW.