1000 resultados para falhas do computador
Resumo:
O processo de reestruturação do setor elétrico deu origem à criação de diferentes estruturas de mercado, tendo como objetivo o aumento da competitividade e eficiência. Atualmente, a comercialização de energia elétrica pode ser realizada com recurso a mercados em bolsa ou através da celebração de contratos bilaterais. Sendo o mercado em bolsa caraterizado por uma forte volatilidade de preços, e considerando a atribuição de incentivos para o crescimento da geração renovável não controlada, revela-se importante analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. Neste contexto, a presente dissertação tem como principais objetivos estudar e implementar os algoritmos de preço marginal único e preço marginal local, normalmente utilizados no mercado em bolsa, bem como dotar o simuladormultiagente MANREM com um módulo para simular os mercados diário e intradiário, e analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. O estudo detalhado de um caso prático e os resultados obtidos com recurso ao simuladormulti-agente permitiram replicar, em computador, o impacto esperado, sendo possível observar uma redução de preços e uma alteração dos compromissos de produção dos produtores convencionais. O estudo contemplou a simulação do mercado diário com recurso aos algoritmos de preço marginal único e preço marginal local, podendo constatar-se que a ferramenta multi-agente constitui um auxiliar importante à tomada de decisão nos mercados de eletricidade.
Resumo:
A investigação realizada integra-se num estudo no âmbito das redes neuronais artificiais (RNA), previamente iniciado em diferentes ETAR do Grupo Águas de Portugal. O trabalho executado centrou-se em dois casos de estudo diferentes, um localizado na ETAR do Seixal e outro situado na ETAR de Sesimbra. O principal alvo da investigação efetuada na ETAR do Seixal foi gerar RNA com capacidade de prever valores de condutividade existentes no caudal total afluente à ETAR, de modo a adicionar este parâmetro a um conjunto de variáveis pré-existente e estudar a sua influência no processo de digestão anaeróbia. Na ETAR de Sesimbra o foco do estudo foi a criação de um conjunto de variáveis afeto ao mesmo processo de tratamento e com base no potencial de aprendizagem das RNA, estimar valores de biogás gerado. Concluída a investigação em cada ETAR, criou-se um modelo comum aos dois casos de estudo com o objetivo de prever valores de biogás gerado. As RNA foram produzidas com recurso a um programa de computador denominado NeuralTools®. As séries de dados das diferentes variáveis constituíam a base de informação das RNA e a sua construção e preparação foi um aspeto fundamental no trabalho realizado. A análise estatística foi o principal suporte do tratamento de dados efetuado em ambos os casos de estudo. Foram produzidas bastantes RNA e em diferentes condições, de forma a gerar os melhores resultados possíveis. Na investigação concretizada na ETAR do Seixal não se produziram bons resultados, por insuficiência do conhecimento da relação entre o funcionamento do processo de digestão anaeróbia e os valores de condutividade registados. Na ETAR de Sesimbra, a melhor RNA foi produzida com base nas séries de dados que evidenciaram um maior coeficiente de correlação com a série de dados de caudal de biogás. Os resultados gerados na ETAR de Sesimbra foram satisfatórios, tal como também foram os resultados dos testes realizados com o modelo global. O principal obstáculo na produção de melhores resultados advém da elevada variabilidade de valores existente nas séries de dados relacionadas com o funcionamento do processo de digestão anaeróbia.
Resumo:
Na prospeção geológico-geotécnica de terrenos que serve de apoio ao desenvolvimento do projeto de grandes obras, como barragens, túneis e cavernas subterrâneas, é usual executar ensaios Lugeon para a caracterização das propriedades hidráulicas dos maciços. No caso particular dos maciços rochosos, em que o escoamento da água ocorre essencialmente pelas descontinuidades, i.e., falhas e diaclases, os ensaios Lugeon integram e homogeneizam as propriedades hidráulicas de um volume de maciço, não tendo em conta o efeito discreto de que o escoamento se reveste. Pretende-se com este trabalho contribuir para uma melhoria da interpretação dos resultados destes ensaios e das metodologias de zonamento e caracterização hidráulica dos maciços rochosos. Para este efeito, foram estudados os resultados tradicionais de 372 ensaios Lugeon de sete barragens em Portugal, juntamente com as caraterísticas geotécnicas dos troços ensaiados, nomeadamente a fraturação evidenciada pelos registos fotográficos dos tarolos de sondagens, com o objetivo de correlacionar um conjunto de parâmetros geológicos com os resultados dos ensaios Lugeon. Avaliou-se a influência de parâmetros associados à fraturação, como a taxa de recuperação, índice RQD, número de descontinuidades, bem como a de parâmetros relacionados com fatores geométricos dos ensaios como a profundidade, localização e a orientação entre as descontinuidades e o eixo do furo. Ainda se avaliou o impacto que um fator relacionado com o estado de tensão tem nos resultados. A partir da aplicação desta avaliação estabeleceram-se correlações entre estas variáveis para perceber o efeito e peso de cada um e estabelecer uma classificação geo-hidráulica para maciços rochosos que auxilie na definição do zonamento hidráulico.
Resumo:
RESUMO - Introdução: Os modelos organizacionais de saúde baseados na gestão integrada de cuidados têm permitido melhorar os resultados em saúde. A taxa de readmissão hospitalar (um indicador de resultados) tem diminuído nas instituições que adotaram aquele modelo de gestão. Em Portugal, a criação das Unidades Locais de Saúde, representa a adoção de um modelo baseado na gestão integrada entre os cuidados de saúde hospitalares, primários e continuados, pelo que importa comparar a taxa de readmissões hospitalares entre os hospitais com esse modelo e os restantes Hospitais. Metodologia: Determinaram-se as readmissões não planeadas a 30 dias nos hospitais públicos portugueses do Continente durante 2013, segundo a metodologia do Centers for Medicare and Medicaid Service, que usa um algoritmo que identifica as readmissões que são habitualmente planeadas e podem ocorrer no prazo de 30 dias após a alta hospitalar. Foi calculada a taxa anual de readmissão por tipo de hospital e a sua frequência por género, faixa etária e para indivíduos com insuficiência cardíaca, doença pulmonar obstrutiva crónica, diabetes mellitus e hipertensão arterial. Resultados: Dos 692.211 episódios de internamento de 2013, 6,0% corresponderam a readmissões hospitalares não planeadas a 30 dias. Os episódios de internamento nas Unidades Locais de Saúde foram 72.725, sendo 6,6% readmitidos. Nos restantes Hospitais foram 619.486, sendo 6,0% readmitidos. A taxa de readmissão registada nos indivíduos do sexo masculino foi superior à do sexo feminino nas Unidades Locais de Saúde (7,6% vs. 6,0%) e nos restantes Hospitais (6,7% vs. 5,4%), não sendo esta diferença estatisticamente significativa (p> 0,05). Foram identificadas diferenças estatisticamente significativas (p <0,05) nas taxas de readmissão por faixa etária, sendo as pessoas com 65 anos ou mais as que apresentaram a maior taxa de readmissão nas Unidades Locais de Saúde (10,3%) e nos restantes Hospitais (10,0%). Quando analisadas as readmissões por patologia, nas Unidades Locais de Saúde os doentes com doença pulmonar obstrutiva crónica foram os que apresentaram a maior taxa de readmissão (17,5%) e os doentes com insuficiência cardíaca os que apresentaram a maior taxa de readmissão para os restantes Hospitais (16,4%). Conclusão: Em termos gerais, a frequência das readmissões nas Unidades Locais de Saúde é superior à dos restantes Hospitais. Os resultados obtidos podem indicar dificuldades na operacionalização do modelo de gestão adotado pelas Unidades Locais de Saúde, nomeadamente falhas na coordenação dos cuidados entre os diferentes níveis de prestação de cuidados.
Resumo:
As águas são potenciais vias de infeção, pois servem como veículos para disseminação de possíveis microrganismos patogénicos que podem levar a surtos. Por isso é importante manter os ambientes aquáticos livres de microrganismos. Para isso é necessário a constante monitorização desses ambientes. Isto é realizado através da utilização de microrganismos indicadores (FIB), que sugerem o nível de poluição fecal da água. Porém, tem sido demonstrado que os FIB possuem graves falhas na identificação de certos tipos de microrganismos, como por exemplo, os vírus, assim como na identificação da fonte de contaminação fecal. A partir disso surgiu o Microbial Source Tracking (MST), que tem como objetivo principal a identificação específica do hospedeiro ou ambiente causador da contaminação fecal. Neste estudo foram utilizadas uma combinação de diferentes métodos, sendo a maioria destas técnicas moleculares, para fornecer uma nova abordagem prática, viável e integrável a partir da utilização das amostras ambientais retiradas do Rio Tejo. Para isso foram efetuadas colheitas totalizando 73 amostras em quatro pontos diferentes no rio Tejo: VFX, MPN, ALC e Belém. Nestes pontos foram analisados quantitativamente os marcadores bacteriológicos E. coli e EF; os considerados potenciais indicadores de vírus, CS e Bacteriófagos de GB-124 e marcadores moleculares HAdV, mtDNA humano, bovino, suíno e de aves de consumo humano. Foram encontradas positividades para todos os pontos, com 99% para E. coli, 97% para EF, 99% para CS, 1% para Bacteriófagos de GB-124, 40% para HAdV, 90% para mtDNA humano, 92% mtDNA bovino, 58% mtDNA suíno, 37% mtDNA de aves de consumo humano. Estes marcadores foram também correlacionados, e devido à fraca correlação encontrada, os resultados indicam que as informações fornecidas pelos indicadores bacteriológicos e CS são diferentes das informações obtidas pelos indicadores moleculares.
Resumo:
Actualmente, os meios de produção industrial estão em constante desenvolvimento, de forma a corresponderem a um mercado cada vez mais globalizado, caracterizado por uma forte competição, uma pressão na redução de custos, e a existência de produtos e serviços personalizados. Entretanto, ao nível de equipamento de robótica, também se tem notado esta pressão por parte do mercado, exigindo-se equipamento com uma complexidade crescente, tanto ao nível da sua morfologia, do seu controlo e da sua utilização. Ao nível da sua utilização, tornou-se então necessário adoptar abordagens que permitam um maior controlo quanto a falhas de manuseamento e respectiva modelação destes robôs. Uma destas abordagens é a simulação. A simulação é uma das áreas com maior crescimento a nível tecnológico, sendo utilizada em várias áreas de tecnologia e informação devido à sua capacidade de adaptação, tornando-se numa área bastante dinâmica e flexível. Dentro dum contexto de robôs industriais, as aplicações mais típicas consistem na programação “offline” de robôs e na aprendizagem de robótica, tendo como objectivo estudar e analisar os comportamentos de determinados sistemas, com o intuito de reduzir a necessidade de intervenção humana em tarefas repetitivas, perigosas e dispendiosas. Além disso, a simulação está também presente na computação informática nas salas de aulas, por forma a auxiliar o professor. Foi então idealizado um sistema de simulação capaz de imitar um robô industrial em que os alunos terão que conseguir controlar, para que os vários testes sejam primeiramente implementados no simulador, diminuindo assim, o risco de causar acidentes no seu congênere real durante a fase de testes. O sistema consiste numa interface em que possibilita ao utilizador fazer um controlo manual do robô simulado, assim como ser capaz de o controlar por comandos requisitados por uma aplicação exterior através de serviços WEB, permitindo assim, a simulação de vários testes no robô industrial em causa.
Resumo:
A procura crescente de energia ao longo do tempo, e também o seu custo, tem estimulado a procura de novas formas de geração ou aproveitamento energético, donde se pode destacar a geração de energia eléctrica para autoconsumo. À semelhança de já muitos países aderentes aos sistemas de autoconsumo, Portugal também já tem legislação que permite a utilização deste tipo de sistemas através de Unidades de Produção para Autoconsumo (UPAC). Este tipo de sistemas trazem consigo vantagens tanto para o produtor, que produz a sua própria energia e assim poderá ter algum retorno financeiro, como também para a rede eléctrica nacional (RESP) que, mercê da disponibilidade de mais fontes de energia, tem a possibilidade de ficar menos sobrecarregada em períodos de ponta. Com o intuito de aproveitar ao máximo a energia produzida para autoconsumo e evitar estar a utilizar energia da rede em períodos em que a energia produzida não consegue dar resposta à procura, este trabalho propõe-se a optimizar os níveis de autoconsumo destes sistemas, que no geral apresentam valores entre os 20% e 40% anuais no sector residencial. Deste modo, e de acordo com o que é definido por Demand-Side Management (DSM) será desenvolvido neste trabalho de dissertação um projecto deste tipo, que consiste na monitorização e gestão da energia produzida numa habitação ou indústria. O desenvolvimento deste projecto assenta na criação de um sistema de autoconsumo, constituído por um painel fotovoltaico, sensores, actuadores e uma carga, assim como hardware que permitirá monitorizar, de forma remota, as condições de funcionamento do sistema e fazer a gestão de energia do mesmo, de forma remota, recorrendo para isso às tecnologias de Informação e Comunicação. As aplicações de software responsáveis por essa gestão serão desenvolvidas com recurso à linguagem JAVA e Arduino Programming Language. Será utilizado um módulo Wi-Fi que permitirá a troca de dados entre Cliente (Arduino UNO com Microchip RN-171-XV) e Servidor (Aplicação em JAVA presente num computador). No final serão analisados os levantamentos de energia produzida e avaliado se o controlo de cargas é feito consoante as melhores condições de aproveitamento da energia produzida.
Resumo:
Utilizando cromatografia gás-espectrometria de massa (CG/EM) com computador, descreve-se os constituintes voláteis do óleo essencial das sementes de puxuri (Licaria puchury-major). Identificaram-se nove monoterpenos na mistura, além de safrol, eugenol, metileugenol e ácido dodecanóico, citados previamente.
Resumo:
O comportamento dos colonos na rodovia Transamazônica, com respeito à derrubada da floresta primária e a roçagem de crescimento secundário (capoeira), é modelado como par_ te de uma simulação por computador com a finalidade de estimar a capacidade de suporte humano. As áreas "cortadas," (desmatadas no caso de floresta, virgem, ou roçadas no caso da capoeira) são limitadas pelos recursos disponíveis aos colonos: terra, mão-de-obra e capital. Os parâmetros de entrada para a simulação são baseados em entrevistas realizadas entre os colonos em uma área de estudo localizada a 50 km a oeste de Altamira, estado do Pará. Dados do Projeto de Colonização de Ouro Preto, no Estado de Rondônia, mostram muitas semelhanças com os padrões observados em Altamira. Para fins de simulação, áreas disponíveis aos colonos, nos lotes, são classificados pela idade de crescimento secundário, com uma classe separada para floresta virgem (i.e. nao previamente derrubada pelos colonos). A probabilidade de corte, dentro de cada classe, é calculada baseando-se na proporção de anos-lote nos quais a classe era presente e era cortada. As probabilidades são de derrubada em uma parte da área na classe em questão; estes "contes" são a preparação da terra para culturas que não sejam pastagens (a pastagem é calculada separadamente). Em Rondônia, as áreas cortadas em lotes ocupadas por um único dono, aumentam linearmente ao longo de. 6 anos, após o que a área desmatada aumenta muito mais lentamente. A venda de lotes aos recém-chegados leva a novos períodos de desmatamento rápido. Os efeitos do comportamento dos colonos no que se refere ao corte de floresta e de capoeira sobre a capacidade de òupotte oicíuem os seguintes: [a] a falta de um cronograma de pousio (descanso) de maneira que os períodos sem cultivo sejam suficientes para restaurar a qualidade do solo, como é no caso dos pousios em sistemas tradicionais de agricultura itinerante, podem, potencialmente, levar à degradação do recurso e à diminuição da capacidade de suporte., e (b) o desmatamento rápido Ieva ao plantio de pastagens, que é associado com uma baixa capacidade de suporte humano, e (c) ultrapassar o limite máximo para desmatamento pode ser usado como um dos critérios para a determinacão da capacidade de suporte.
Resumo:
Este trabalho de investigação começou por ser estruturado em torno de quatro grandes capítulos (quatro grandes linhas de orientação temática), todos eles amplamente desenvolvidos no sentido de podermos cartografar alguns dos principais territórios e sintomas da arte contemporânea, sendo certo também, que cada um deles assenta precisamente nos princípios de uma estrutura maleável que, para todos os efeitos, se encontra em processo de construção (work in progress), neste caso, graças à plasticidade do corpo, do espaço, da imagem e do uso criativo das tecnologias digitais, no âmbito das quais, aliás, tudo se parece produzir, transformar e disseminar hoje em dia à nossa volta (quase como se de uma autêntica viagem interactiva se tratasse). Por isso, a partir daqui, todo o esforço que se segue procurará ensaiar uma hipótese de trabalho (desenvolver uma investigação) que, porventura, nos permita desbravar alguns caminhos em direcção aos intermináveis túneis do futuro, sempre na expectativa de podermos dar forma, função e sentido a um desejo irreprimível de liberdade criativa, pois, a arte contemporânea tem essa extraordinária capacidade de nos transportar para muitos outros lugares do mundo, tão reais e imaginários como a nossa própria vida. Assim sendo, há que sumariar algumas das principais etapas a desenvolver ao longo desta investigação. Ora, num primeiro momento, começaremos por reflectir sobre o conceito alargado de «crise» (a crise da modernidade), para logo de seguida podermos abordar a questão da crise das antigas categorias estéticas, questionando assim, para todos os efeitos, quer o conceito de «belo» (Platão) e de «gosto» (Kant), quer ainda o conceito de «forma» (Foccilon), não só no sentido de tentarmos compreender algumas das principais razões que terão estado na origem do chamado «fim da arte» (Hegel), mas também algumas daquelas que terão conduzido à estetização generalizada da experiência contemporânea e à sua respectiva disseminação pelas mais variadas plataformas digitais. Num segundo momento, procuraremos reflectir sobre alguns dos principais problemas da inquietante história das imagens, nomeadamente para tentarmos perceber como é que todas estas transformações técnicas (ligadas ao aparecimento da fotografia, do cinema, do vídeo, do computador e da internet) terão contribuído para o processo de instauração e respectivo alargamento daquilo que todos nós ficaríamos a conhecer como a nova «era da imagem», ou a imagem na «era da sua própria reprodutibilidade técnica» (Benjamin), pois, só assim é que conseguiremos interrogar este imparável processo de movimentação, fragmentação, disseminação, simulação e interacção das mais variadas «formas de vida» (Nietzsche, Agamben). Entretanto, chegados ao terceiro grande momento, interessa-nos percepcionar a arte contemporânea como uma espécie de plataforma interactiva que, por sua vez, nos levará a interpelar alguns dos principais dispositivos metafóricos e experimentais da viagem, neste caso, da viagem enquanto linha facilitadora de acesso à arte, à cultura e à vida contemporânea em geral, ou seja, todo um processo de reflexão que nos incitará a cartografar alguns dos mais atractivos sintomas provenientes da estética do flâneur (na perspectiva de Rimbaud, Baudelaire, Long e Benjamin) e, consequentemente, a convocar algumas das principais sensações decorrentes da experiência altamente sedutora daqueles que vivem mergulhados na órbita interactiva do ciberespaço (na condição de ciberflâneurs), quase como se o mundo inteiro, agora, fosse tão somente um espaço poético «inteiramente navegável» (Manovich). Por fim, no quarto e último momento, procuraremos fazer uma profunda reflexão sobre a inquietante história do corpo, principalmente com o objectivo de reforçar a ideia de que apesar das suas inúmeras fragilidades biológicas (um ser que adoece e morre), o corpo continua a ser uma das «categorias mais persistentes de toda a cultura ocidental» (Ieda Tucherman), não só porque ele resistiu a todas as transformações que lhe foram impostas historicamente, mas também porque ele se soube reinventar e readaptar pacientemente face a todas essas transformações históricas. Sinal evidente de que a sua plasticidade lhe iria conferir, principalmente a partir do século XX («o século do corpo») um estatuto teórico e performativo verdadeiramente especial. Tão especial, aliás, que basta termos uma noção, mesmo que breve, da sua inquietante história para percebermos imediatamente a extraordinária importância dalgumas das suas mais variadas transformações, atracções, ligações e exibições ao longo das últimas décadas, nomeadamente sob o efeito criativo das tecnologias digitais (no âmbito das quais se processam algumas das mais interessantes operações de dinamização cultural e artística do nosso tempo). Em suma, esperamos sinceramente que este trabalho de investigação possa vir a contribuir para o processo de alargamento das fronteiras cada vez mais incertas, dinâmicas e interactivas do conhecimento daquilo que parece constituir, hoje em dia, o jogo fundamental da nossa contemporaneidade.
Resumo:
Numa unidade fabril um dos fatores decisivos para o cumprimento dos objetivos exigidos é a capacidade de produção sem paragens involuntárias, isto é, a fiabilidade dos equipamentos tem de ser elevada. Para que tal aconteça é necessário que exista um planeamento da manutenção desses mesmos equipamentos e que esta seja aplicada de forma coerente e estruturada. No âmbito do estudo de caso, para a determinar a fiabilidade, manutibilidade e disponibilidade dos componentes do sistema utilizaram-se modelos estatísticos, baseados nos dados disponíveis do ano 2014. Iniciou-se a análise do sistema global fazendo o levantamento do número de falhas por equipamento e das suas respetivas durações que, por sua vez, foram recolhidas através dos registos das folhas de obra abertas/fechadas para cada equipamento. Utilizou-se o teste de Laplace para determinar qual a tendência das avarias, e, com o auxílio dos indicadores de manutibilidade e fiabilidade, determinou-se a disponibilidade intrínseca do sistema. Em seguida, iniciou-se um estudo mais detalhado sobre os tempos registados no decorrer de cada avaria, visando reduzir o gap presente na base de dados usada e, com isso, aumentar a sua fiabilidade. Identificaram-se os equipamentos críticos, assumindo que estes se encontram abaixo dos valores aceitáveis para um fluxo produtivo contínuo e eficiente. Por fim, realizou-se um levantamento de custos, associados ao ciclo de vida de cada equipamento, de forma a ajudar a empresa a decidir se a melhor opção será a substituição dos equipamentos críticos ou a sua reparação. Com toda esta informação, elaborou-se um documento que demonstra, quais os equipamentos que têm maior influência na disponibilidade da linha e ainda todos os gastos existentes em manutenção e componentes. Espera-se que, com este estudo, a empresa possua as ferramentas necessárias para poder tomar uma decisão que se traduza numa melhoria do fluxo produtivo do sistema.
Resumo:
O Hospital definido como local de elevada importância devido às caraterísticas e funções que tem, tais como assegurar que consegue receber todos os utentes da sua zona de ação, trata-los com dignidade e dar-lhes as melhores condições de forma rápida e eficaz para que estes consigam recuperar das suas doenças com a maior brevidade. Destes estão dependentes vidas humanas, como tal é de todo relevante ter uma gestão adequada de toda a infra-estrutura para que a eficiência seja alta e se consiga dar mais e melhor a todos os utentes, visto já se ter notado que nem sempre estes tiram o melhor partido das suas capacidades pelas mais diversas razões. Este projeto foi realizado numa parceria com o Hospital Professor Doutor Fernando Fonseca e consistiu em escrutinar dois serviços do hospital, o de tecnologia de informação e a Tomografia Axial Computorizada de imagiologia para perceber quais as falhas destes e como é que aplicando um modelo de gestão de Tecnologia de Informação denominado COBIT adaptado se consegue melhorar os resultados obtidos e as condições dadas pelo hospital. Este estudo permite perceber o porquê e as causas de uma estrutura deste tipo não dar o rendimento esperado e quais as implicâncias disso. Através dos resultados são analisadas os maiores pontos de rutura e retiradas elações sobre as possíveis melhorias a aplicar que a nível tecnológico, de recursos humanos, financeiro e de otimização do risco e melhoramento da eficácia de recursos.
Resumo:
This essay presents the European Arrest Warrant and its relationship with the principle of double criminality, which was abolished in 2002 with the new Framework Decision (FD). This instrument was essential to implement the principle of mutual recognition and strengthen the police and judicial cooperation in criminal matters in the newly created space of freedom, security and justice. It was urgent to create mechanisms to combat cross-border crime, that alone States have struggled to counter. An analysis of the FD No 2002/584/JHA is made. The execution of warrants and the non-mandatory and optional grounds of refusal are studied in detail. As it is the implementation issue. The role of mutual recognition in practice is studied as well. The procedure is to introduce the principle of double criminality, to explain the concept and its abolition, warning for the consequences derived from them, related to the principle of legality and fundamental rights. The analysis of the European Arrest Warrant in practice in Portugal and in comparison with other Member States allows the measurement of the consequences from the abolition of dual criminality and the position of States on this measure. With the abolition of double criminality, the cooperation in judicial and criminal matters departs from what was intended by the European Council of Tampere. And without cooperation, fundamental rights of citizens are unprotected, so the states have to adopt measures to remedy the "failures" of the European Law.
Resumo:
Dissertação de mestrado em Direito dos Negócios, Europeu e Transnacional
Resumo:
PhD thesis in Biomedical Engineering