116 resultados para Complexidade : Kolmogorov
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
A educação é uma área bastante importante no desenvolvimento humano e tem vindo a adaptar-se às novas tecnologias. Tentam-se encontrar novas maneiras de ensinar de modo a obter um rendimento cada vez maior na aprendizagem das pessoas. Com o aparecimento de novas tecnologias como os computadores e a Internet, a concepção de aplicações digitais educativas cresceu e a necessidade de instruir cada vez melhor os alunos leva a que estas aplicações precisem de um interface que consiga leccionar de uma maneira rápida e eficiente. A combinação entre o ensino com o auxílio dessas novas tecnologias e a educação à distância deu origem ao e-Learning (ensino à distância). Através do ensino à distância, as possibilidades de aumento de conhecimento dos alunos aumentaram e a informação necessária tornou-se disponível a qualquer hora em qualquer lugar com acesso à Internet. Mas os cursos criados online tinham custos altos e levavam muito tempo a preparar o que gerou um problema para quem os criava. Para recuperar o investimento realizado decidiu-se dividir os conteúdos em módulos capazes de serem reaproveitados em diferentes contextos e diferentes tipos de utilizadores. Estes conteúdos modulares foram denominados Objectos de Aprendizagem. Nesta tese, é abordado o estudo dos Objectos de Aprendizagem e a sua evolução ao longo dos tempos em termos de interface com o utilizador. A concepção de um interface que seja natural e simples de utilizar nem sempre é fácil e independentemente do contexto em que se insere, requer algum conhecimento de regras que façam com que o utilizador que use determinada aplicação consiga trabalhar com um mínimo de desempenho. Na concepção de Objectos de Aprendizagem, áreas de complexidade elevada como a Medicina levam a que professores ou doutores sintam alguma dificuldade em criar um interface com conteúdos educativos capaz de ensinar com eficiência os alunos, devido ao facto de grande parte deles desconhecerem as técnicas e regras que levam ao desenvolvimento de um interface de uma aplicação. Através do estudo dessas regras e estilos de interacção torna-se mais fácil a criação de um bom interface e ao longo desta tese será estudado e proposto uma ferramenta que ajude tanto na criação de Objectos de Aprendizagem como na concepção do respectivo interface.
Resumo:
Actualmente verifica-se que a complexidade dos sistemas informáticos tem vindo a aumentar, fazendo parte das nossas ferramentas diárias de trabalho a utilização de sistemas informáticos e a utilização de serviços online. Neste âmbito, a internet obtém um papel de destaque junto das universidades, ao permitir que alunos e professores possam interagir mais facilmente. A internet e a educação baseada na Web vêm oferecer acesso remoto a qualquer informação independentemente da localização ou da hora. Como consequência, qualquer pessoa com uma ligação à internet, ao poder adquirir informações sobre um determinado tema junto dos maiores peritos, obtém vantagens significativas. Os laboratórios remotos são uma solução muito valorizada no que toca a interligar tecnologia e recursos humanos em ambientes que podem estar afastados no tempo ou no espaço. A criação deste tipo de laboratórios e a sua utilidade real só é possível porque as tecnologias de comunicação emergentes têm contribuído de uma forma muito relevante para melhorar a sua disponibilização à distância. A necessidade de criação de laboratórios remotos torna-se imprescindível para pesquisas relacionadas com engenharia que envolvam a utilização de recursos escassos ou de grandes dimensões. Apoiado neste conceito, desenvolveu-se um laboratório remoto para os alunos de engenharia que precisam de testar circuitos digitais numa carta de desenvolvimento de hardware configurável, permitindo a utilização deste recurso de uma forma mais eficiente. O trabalho consistiu na criação de um laboratório remoto de baixo custo, com base em linguagens de programação open source, sendo utilizado como unidade de processamento um router da ASUS com o firmware OpenWrt. Este firmware é uma distribuição Linux para sistemas embutidos. Este laboratório remoto permite o teste dos circuitos digitais numa carta de desenvolvimento de hardware configurável em tempo real, utilizando a interface JTAG. O laboratório desenvolvido tem a particularidade de ter como unidade de processamento um router. A utilização do router como servidor é uma solução muito pouco usual na implementação de laboratórios remotos. Este router, quando comparado com um computador normal, apresenta uma capacidade de processamento e memória muito inferior, embora os testes efectuados provassem que apresenta um desempenho muito adequado às expectativas.
Resumo:
A forma de organizar e relacionar as empresas, em termos globais, foi alterada no final do século XX por uma sucessão de factos e acontecimentos socioeconómicos. A economia global, o sistema monetário internacional, as empresas multinacionais e o investimento direto estrangeiro, são factos indesmentíveis Com efeito, o incremento do comércio internacional e a mobilidade de pessoas e recursos – onde se incluem os financeiros – associados ao progresso nas tecnologias de informação e da comunicação proporcionaram novas dinâmicas aos negócios, aos mercados de capitais e às regras de preparação e apresentação das contas das empresas, neste caso, com ênfase em conceitos como a universalidade e a comparabilidade Paradigmas deste desenvolvimento, os mercados financeiros foram impulsionados pela inovação financeira, com o surgimento de novos tipos de contratos e instrumentos financeiros bastante complexos que são transacionados pelas empresas para cobertura de risco e, eventualmente, para especulação. O tratamento contabilístico dos instrumentos financeiros tornou-se, em consequência, um enorme desafio para a contabilidade, dada a sua elevada complexidade. È neste desiderato que surge a Norma Contabilística e de Relato Financeiro NCRF27 – instrumentos financeiros que visa o tratamento contabilístico dos instrumentos financeiros e respetivos requisitos de apresentação e divulgação que de seguida explanaremos. Não podemos deixar de referir que esta obra vem na sequência de outras publicadas pelo autor, a saber: Normas Internacionais de Contabilidade – teoria e prática; Gestão Financeira – Análise de Fluxos Financeiros; Gestão Financeira – Análise de Investimentos; Custo Amortizado e Imparidade e Novas Demonstrações Financeiras.
Resumo:
A gestão dos sistemas eléctricos de energia assume um papel fundamental a vários níveis. Desde logo, o bom funcionamento (qualidade e continuidade de serviço) e a segurança da exploração apenas são conseguidos com um bom planeamento. Outro ponto importantíssimo é o aspecto económico. A este nível, os sistemas eléctricos representam um peso importante nas economias nacionais, uma vez que a energia é o motor do desenvolvimento. Nos tempos que correm, o aparecimento de grandes potências tem agitado os mercados energéticos, fazendo com que o preço dos produtos energéticos atinja máximos históricos. No primeiro capítulo deste trabalho, é feita uma introdução onde se apresenta e contextualiza o Despacho Óptimo na gestão global dos sistemas eléctricos de energia e como estes evoluíram nos últimos anos. O problema do Despacho Óptimo e todas as condicionantes/variáveis inerentes à sua resolução são aprofundados no capítulo 2. Primeiramente desprezando as perdas de transmissão das linhas, e depois com a sua contemplação. É, também, apresentado o métodos dos multiplicadores de Lagrange aplicado a este problema. No capítulo 3 é feita uma resenha da evolução dos métodos utilizados para a resolução do Despacho Óptimo, fazendo-se a destrinça entre os métodos clássicos e os mais recentes métodos heurísticos. A evolução que se tem verificado ao longo dos anos nos métodos utilizados, assim como o recurso ao cálculo computacional, devem-se à crescente complexidade dos Sistemas Eléctricos e à necessidade de rapidez e precisão nos resultados. Devido ao facto das centrais de produção de energia eléctrica funcionarem, não só com recurso a matérias-primas mas também através de recursos naturais que não têm um custo de aquisição, mas que não têm uma disponibilidade constante, existe a necessidade de se fazer uma gestão criteriosa na conjugação dos diversos tipos de produção. Como no nosso pais a grande alternativa às centrais térmicas são as hídricas, no capítulo 4 é apresentado o problema da coordenação hidro-térmica. No capítulo 5 é exposta a ferramenta computacional desenvolvida para a resolução do despacho óptimo com e sem perdas, que consiste num programa elaborado com o “software MatLab”. Este trabalho finaliza com um capítulo de conclusões.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
A Língua Gestual Portuguesa (LGP) foi, em 1997, reconhecida como a língua oficial dos surdos portugueses. Os trabalhos pioneiros de William Stokoe, na década de 60, sustentaram a evidência de que os surdos possuem a sua própria língua, que adquirem de forma natural sempre que expostos a um ambiente linguístico que lhes permita a sua aquisição e desenvolvimento plenos. A LGP é uma língua natural e apresenta uma complexidade estrutural equivalente à das línguas orais, sendo possível distinguir elementos descritivos da mão, tais como a configuração, o local de articulação, o movimento, a orientação e ainda os componentes não-manuais. A LGP desenvolve-se num ―espaço sintáctico‖, espaço em frente do gestuante, onde se organizam as relações morfológicas e sintácticas. Neste artigo, pretendemos descrever e classificar alguns processos de polissemia nominal que detectámos em LGP. Partindo duma abordagem bottom-up, com base num corpus de cem gestos nominais, observámos os processos polissémicos presentes. Tendo como referência um enquadramento teórico-conceptual de cariz cognitivista da noção de polissemia, detectámos processos metonímicos, de denominação através de características estereotípicas de um determinado referente e de possível contacto linguístico entre a Língua Gestual Portuguesa e a Língua Portuguesa Escrita. Também foram encontrados processos de polissemia que parecem assentar numa sinonímia visual e cuja polissemia se reveste de uma identificação sinónima, através de uma imagem comum, entre um referente e outro. Salientaremos ainda que este trabalho se considera exploratório, relativamente, aos processos de polissemia em LGP, sendo nossa intenção continuar a estudar com mais dados este fenómeno.
Resumo:
Este estudo tem por objectivo reflectir sobre o papel da Terminologia na organização conceptual e linguística das áreas de especialidade. Defender-se-á que, pela sua natureza hermenêutica, organizadora, harmonizadora e heurística, esta área científica poderá reduzir a complexidade e a fragmentação lexical e conceptual que impera no domínio dos modelos de educação para o Ensino Superior, permitindo ajudar a clarificar a filiação ideológica das várias visões de ensino, levando deste modo a que o debate seja epistemologicamente transparente. Será focado o caso particular do Blended-Learning, enquanto exemplo de um sub-domínio ainda instável, do ponto de vista da sua organização ontológica e da sua materialização linguística e terminológica.
Resumo:
This paper aims at analysing the writing of the Portuguese author António Lobo Antunes, considered one of the major writers in European Literature with 26 books published, by focusing on the strategies deployed in his texts of creating micro-narratives within the main frame, and conveying the elements of individual and collective memory, past and present, the self and the others, using various voices and silences. Lobo Antunes incorporates in his writing his background as a psychiatrist at a Mental Hospital in Lisbon, until 1985 (when he decided to commit exclusively to writing), his experience as a doctor in the Portuguese Colonial War battlefield, but also the daily routines of the pre and post 25th of April 1974 (Portuguese Revolution) with subtle and ironic details of the life of the middle and upper class of Lisbon‘s society: from the traumas of the war to the simple story of the janitor, or the couple who struggles to keep their marriage functional, everything serves as material to develop and interweave a complex plot, that a lot of readers find too enwrapped and difficult to follow through. Some excerpts taken from his first three novels and books of Chronicles and his later novel – Ontem não te Vi em Babilónia (2006) – will be put forward to exemplify the complexity of the writing and the main difficulties of the reader, lost in a multitude of narrators‘ voices. Recently, Lobo Antunes has commented on his work stating: What I write can be read in the darkness. This paper aims at throwing some light by unfolding some of the strategies employed to defy new borders in the process of reading.
Resumo:
O crescimento do mercado electrónico e o aumento das comunicações além-fronteiras, resultante sobretudo da difusão da Internet, repercutiu-se, de modo intenso, na indústria de tradução, particularmente, na exigência crescente da tradução de websites, e, sobretudo, na localização de software. Para melhor perceber esta realidade e, de modo a contribuir para uma maior sistematização do conhecimento nesta área, o presente artigo inicia-se com uma breve análise sobre a evolução dos conceitos e dos mercados da tradução e da localização. Procura distinguir entre os diferentes prestadores de serviços de tradução, nomeadamente, empresas e agências e descreve o processo seguido na elaboração de projectos de localização, reconhecendo a tradução como elemento integrante do projecto de localização. Com base na interpretação dos conceitos de projecto e de gestão de projectos descreve-se o processo de gestão de projectos de tradução. Sendo o gestor de projectos o elemento essencial deste processo, analisam-se as funções e competências do mesmo e descrevem-se as tarefas e processos usados por este profissional, tendo em conta o ciclo de vida e os elementos que compõem o processo de gestão de projectos. A partir desta análise propõe-se um modelo de gestão de projectos de tradução/localização baseado na conjugação dos diferentes elementos afectos à gestão e ao gestor de projectos e que procura sintetizar todo o processo inerente à gestão de projectos de tradução/localização. O modelo resulta de dois pontos de vista que se interligam: o da análise e reflexão sobre o estado-da-arte e o da análise empírica dos dados recolhidos no dia-a-dia no universo de trabalho de uma empresa de tradução. Com este modelo, que retrata um processo cíclico e dinâmico, pretende-se, por um lado, ilustrar a complexidade do processo da gestão de projectos e demonstrar a importância das funções do gestor de projectos no vasto universo que é o da tradução e, por outro, desenvolver e propor um modelo de gestão de projectos aplicável a empresas de tradução e de localização.
Resumo:
Introdução Hoje em dia, o conceito de ontologia (Especificação explícita de uma conceptualização [Gruber, 1993]) é um conceito chave em sistemas baseados em conhecimento em geral e na Web Semântica em particular. Entretanto, os agentes de software nem sempre concordam com a mesma conceptualização, justificando assim a existência de diversas ontologias, mesmo que tratando o mesmo domínio de discurso. Para resolver/minimizar o problema de interoperabilidade entre estes agentes, o mapeamento de ontologias provou ser uma boa solução. O mapeamento de ontologias é o processo onde são especificadas relações semânticas entre entidades da ontologia origem e destino ao nível conceptual, e que por sua vez podem ser utilizados para transformar instâncias baseadas na ontologia origem em instâncias baseadas na ontologia destino. Motivação Num ambiente dinâmico como a Web Semântica, os agentes alteram não só os seus dados mas também a sua estrutura e semântica (ontologias). Este processo, denominado evolução de ontologias, pode ser definido como uma adaptação temporal da ontologia através de alterações que surgem no domínio ou nos objectivos da própria ontologia, e da gestão consistente dessas alterações [Stojanovic, 2004], podendo por vezes deixar o documento de mapeamento inconsistente. Em ambientes heterogéneos onde a interoperabilidade entre sistemas depende do documento de mapeamento, este deve reflectir as alterações efectuadas nas ontologias, existindo neste caso duas soluções: (i) gerar um novo documento de mapeamento (processo exigente em termos de tempo e recursos computacionais) ou (ii) adaptar o documento de mapeamento, corrigindo relações semânticas inválidas e criar novas relações se forem necessárias (processo menos existente em termos de tempo e recursos computacionais, mas muito dependente da informação sobre as alterações efectuadas). O principal objectivo deste trabalho é a análise, especificação e desenvolvimento do processo de evolução do documento de mapeamento de forma a reflectir as alterações efectuadas durante o processo de evolução de ontologias. Contexto Este trabalho foi desenvolvido no contexto do MAFRA Toolkit1. O MAFRA (MApping FRAmework) Toolkit é uma aplicação desenvolvida no GECAD2 que permite a especificação declarativa de relações semânticas entre entidades de uma ontologia origem e outra de destino, utilizando os seguintes componentes principais: Concept Bridge – Representa uma relação semântica entre um conceito de origem e um de destino; Property Bridge – Representa uma relação semântica entre uma ou mais propriedades de origem e uma ou mais propriedades de destino; Service – São aplicados às Semantic Bridges (Property e Concept Bridges) definindo como as instâncias origem devem ser transformadas em instâncias de destino. Estes conceitos estão especificados na ontologia SBO (Semantic Bridge Ontology) [Silva, 2004]. No contexto deste trabalho, um documento de mapeamento é uma instanciação do SBO, contendo relações semânticas entre entidades da ontologia de origem e da ontologia de destino. Processo de evolução do mapeamento O processo de evolução de mapeamento é o processo onde as entidades do documento de mapeamento são adaptadas, reflectindo eventuais alterações nas ontologias mapeadas, tentando o quanto possível preservar a semântica das relações semântica especificadas. Se as ontologias origem e/ou destino sofrerem alterações, algumas relações semânticas podem tornar-se inválidas, ou novas relações serão necessárias, sendo por isso este processo composto por dois sub-processos: (i) correcção de relações semânticas e (ii) processamento de novas entidades das ontologias. O processamento de novas entidades das ontologias requer a descoberta e cálculo de semelhanças entre entidades e a especificação de relações de acordo com a ontologia/linguagem SBO. Estas fases (“similarity measure” e “semantic bridging”) são implementadas no MAFRA Toolkit, sendo o processo (semi-) automático de mapeamento de ontologias descrito em [Silva, 2004].O processo de correcção de entidades SBO inválidas requer um bom conhecimento da ontologia/linguagem SBO, das suas entidades e relações, e de todas as suas restrições, i.e. da sua estrutura e semântica. Este procedimento consiste em (i) identificar as entidades SBO inválidas, (ii) a causa da sua invalidez e (iii) corrigi-las da melhor forma possível. Nesta fase foi utilizada informação vinda do processo de evolução das ontologias com o objectivo de melhorar a qualidade de todo o processo. Conclusões Para além do processo de evolução do mapeamento desenvolvido, um dos pontos mais importantes deste trabalho foi a aquisição de um conhecimento mais profundo sobre ontologias, processo de evolução de ontologias, mapeamento etc., expansão dos horizontes de conhecimento, adquirindo ainda mais a consciência da complexidade do problema em questão, o que permite antever e perspectivar novos desafios para o futuro.
Resumo:
O presente artigo assenta na ideia de que os objectos musicais que ouvimos são representados mentalmente em ligação significante com a restante informação recolhida no contexto de aprendizagem e que este todo complexo é determinante na maneira como recordamos e pensamos em música. O Coneccionismo funciona como a teoria de suporte, já que permite uma concepção de estruturas mentais que preserva as ligações entre objecto e contexto e, portanto, a coexistência significante de diversos tipos de informação distribuídos pelo cérebro. A complexidade contextual de Tocar-na-Assistência é, neste sentido, teoricamente reforçada como um enriquecimento ecológico com efeitos positivos aos níveis da aquisição e da organização da representação mental. A tese é validada através de uma experiência que compara uma condição de controle de 125 crianças a ouvir uma peça de música gravada com uma condição experimental de 125 crianças a tocar ritmos em simultâneo com a mesma gravação. Num teste de identificação auditiva de excertos da peça musical, o grupo experimental obtém classificações melhores com significado estatístico.
Resumo:
Os métodos de determinação dos preços de transferência têm colocado espe¬ciais dificuldades às empresas relacionadas e às administrações fiscais, não apenas pela complexidade das operações, mas também pela dificuldade em aplicar os métodos de determinação dos preços de transferência e em estabelecer uma comparação entre as operações realizadas. Orientados pelos Princípios Diretores da OCDE, o legislador português consagrou no art. 63.º do Código do IRC uma norma anti-abuso destinada a corrigir a matéria coletável no caso dos termos ou condições das operações sobre bens, serviços e direitos não serem substancialmente idênticos aos que normalmente seriam praticados entre entidades independentes. Os diversos métodos previstos na legislação portuguesa, extraídos da OCDE, estabelecem o princípio da comparabilidade dos preços, prevendo margens brutas, margens líquidas e outros indicadores de referência para aferir da comparabilidade entre as operações vinculadas e as operações praticadas por entidades independentes. Embora não exista uma regra geral, os métodos tradicionais constituem o meio mais direto de determinação das relações entre as entidades relacionadas nas situações de plena concorrência. Só não se aplicam isoladamente os métodos tradicionais quando os dados respeitantes a operações não vinculadas não são suficientes ou são pouco fiáveis. Para maximizar os resultados, os agentes económicos devem fazer uma seleção dos métodos e critérios mais apropriados. A dificuldade em obter informações acerca dos termos e das condições praticados entre empresas independentes constitui um impedimento à viabilidade dos métodos tradicionais.
Resumo:
O panorama atual da emergência e socorro de primeira linha em Portugal, carateriza-se por uma grande aposta ao longo dos últimos anos num incremento contínuo da qualidade e da eficiência que estes serviços prestam às populações locais. Com vista à prossecução do objetivo de melhoria contínua dos serviços, foram realizados ao longo dos últimos anos investimentos avultados ao nível dos recursos técnicos e ao nível da contratação e formação de recursos humanos altamente qualificados. Atualmente as instituições que prestam socorro e emergência de primeira linha estão bem dotadas ao nível físico e ao nível humano dos recursos necessários para fazerem face aos mais diversos tipos de ocorrências. Contudo, ao nível dos sistemas de informação de apoio à emergência e socorro de primeira linha, verifica-se uma inadequação (e por vezes inexistência) de sistemas informáticos capazes de suportar convenientemente o atual contexto de exigência e complexidade da emergência e socorro. Foi feita ao longo dos últimos anos, uma forte aposta na melhoria dos recursos físicos e dos recursos humanos encarregues da resposta àsemergência de primeira linha, mas descurou-se a área da gestão e análise da informação sobre as ocorrências, assim como, o delinear de possíveis estratégias de prevenção que uma análise sistematizada da informação sobre as ocorrências possibilita. Nas instituições de emergência e socorro de primeira linha em Portugal (bombeiros, proteção civil municipal, PSP, GNR, polícia municipal), prevalecem ainda hoje os sistemas informáticos apenas para o registo das ocorrências à posteriori e a total inexistência de sistemas de registo de informação e de apoio à decisão na alocação de recursos que operem em tempo real. A generalidade dos sistemas informáticos atualmente existentes nas instituições são unicamente de sistemas de backoffice, que não aproveitam a todas as potencialidades da informação operacional neles armazenada. Verificou-se também, que a geo-localização por via informática dos recursos físicos e de pontos de interesse relevantes em situações críticas é inexistente a este nível. Neste contexto, consideramos ser possível e importante alinhar o nível dos sistemas informáticos das instituições encarregues da emergência e socorro de primeira linha, com o nível dos recursos físicos e humanos que já dispõem atualmente. Dado que a emergência e socorro de primeira linha é um domínio claramente elegível para a aplicação de tecnologias provenientes dos domínios da inteligência artificial (nomeadamente sistemas periciais para apoio à decisão) e da geo-localização, decidimos no âmbito desta tese desenvolver um sistema informático capaz de colmatar muitas das lacunas por nós identificadas ao nível dos sistemas informáticos destas instituições. Pretendemos colocar as suas plataformas informáticas num nível similar ao dos seus recursos físicos e humanos. Assim, foram por nós identificadas duas áreas chave onde a implementação de sistemas informáticos adequados às reais necessidades das instituições podem ter um impacto muito proporcionar uma melhor gestão e otimização dos recursos físicos e humanos. As duas áreas chave por nós identificadas são o suporte à decisão na alocação dos recursos físicos e a geolocalização dos recursos físicos, das ocorrências e dos pontos de interesse. Procurando fornecer uma resposta válida e adequada a estas duas necessidades prementes, foi desenvolvido no âmbito desta tese o sistema CRITICAL DECISIONS. O sistema CRITICAL DECISIONS incorpora um conjunto de funcionalidades típicas de um sistema pericial, para o apoio na decisão de alocação de recursos físicos às ocorrências. A inferência automática dos recursos físicos, assenta num conjunto de regra de inferência armazenadas numa base de conhecimento, em constante crescimento e atualização, com base nas respostas bem sucedidas a ocorrências passadas. Para suprimir as carências aos nível da geo-localização dos recursos físicos, das ocorrências e dos pontos de interesse, o sistema CRITICAL DECISIONS incorpora também um conjunto de funcionalidades de geo-localização. Estas permitem a geo-localização de todos os recursos físicos da instituição, a geo-localização dos locais e as áreas das várias ocorrências, assim como, dos vários tipos de pontos de interesse. O sistema CRITICAL DECISIONS visa ainda suprimir um conjunto de outras carências por nós identificadas, ao nível da gestão documental (planos de emergência, plantas dos edifícios) , da comunicação, da partilha de informação entre as instituições de socorro e emergência locais, da contabilização dos tempos de serviço, entre outros. O sistema CRITICAL DECISIONS é o culminar de um esforço colaborativo e contínuo com várias instituições, responsáveis pela emergência e socorro de primeira linha a nível local. Esperamos com o sistema CRITICAL DECISIONS, dotar estas instituições de uma plataforma informática atual, inovadora, evolutiva, com baixos custos de implementação e de operação, capaz de proporcionar melhorias contínuas e significativas ao nível da qualidade da resposta às ocorrências, das capacidades de prevenção e de uma melhor otimização de todos os tipos de recursos que têm ao dispor.
Resumo:
Na sociedade actual é imperativo assegurar um emprego competente para que o Ser Humano possa atingir a sua subsistência, e consequentemente a sua própria felicidade. No entanto, devido à pressão da sociedade em que vivemos, promover a sustentabilidade do “emprego” hoje em dia, principalmente nas camadas mais jovens, traduz-se em algo extremamente difícil. Estes deparam-se com uma situação árdua quando escolhem um caminho para o seu futuro. Assim como eu, também os jovens da actualidade prevêem que no futuro essas dúvidas se irão manter, ainda de forma mais agravada devido à complexidade das profissões existentes no mundo do trabalho. O meu objectivo neste momento é facilitar a vida dos jovens que se vêem numa encruzilhada, com pouco tempo de resposta para a tomada de decisão do seu próprio futuro. Pretendo fomentar a descoberta e construção da sua própria vocação, dando uso aos novos avanços tecnológicos, juntamente com técnicas já utilizadas na área da Psicologia. Recorrendo a biossensores cognitivos, através do EPOC da Emotiv, que realiza a leitura de sinais neuronais e de uma aplicação informática criada para o efeito. Apesar de não resolver na totalidade, desejo reduzir substancialmente a dúvida dos Jovens na escolha da sua profissão futura.