111 resultados para Paradigma clássico
Resumo:
Os Conselhos de Saúde, criados no Brasil no âmbito do processo de reforma sanitária e de construção do Sistema Único de Saúde (SUS) constituem uma das inovações mais interessantes no campo da saúde e do envolvimento dos cidadãos na definição das políticas de saúde. Estes surgem como instituições híbridas que associam mecanismos de democracia directa com os da democracia representativa. A sua compreensão enquanto espaços institucionais de participação cidadã será tanto mais abrangente e eficaz se forem tomados em consideração 3 pilares distintos que enformam a sua existência: um pilar político, que tomou forma com o movimento sanitarista brasileiro; um pilar de conhecimento e de produção de saberes, que corresponde à emergência de um novo paradigma no domínio da saúde pública e que dá pelo nome de Saúde Colectiva; e, finalmente, um pilar institucional, ligado à própria criação do Sistema Único de Saúde (SUS) brasileiro. É, aliás, ao SUS que os conselhos de saúde se encontram vinculados.
Resumo:
PARADIGMA (do grego parádeigma) significa o exemplo que serve como modelo; o sistema ou modelo conceptual que orienta o desenvolvimento posterior das pesquisas, estando na base da evolução científica padrão; Thomas Kuhn disse "um paradigma, é aquilo que os membros de uma comunidade partilham e, inversamente, uma comunidade científica consiste em homens que partilham um paradigma". Até há pouco tempo, a forma como temos usado os nossos recursos energéticos, como (re) construímos as nossas cidades, como nos comportamos diariamente demonstra um padrão comum, consagrado na ideia de poder usar os diversos recursos à nossa disposição, ilimitadamente sem restrições. O Aquecimento Global é uma realidade incontornável. A forma de mitigar o seu aumento será através da redução drástica dos gases de efeito de estufa – GEE. O Protocolo de Quioto estabelece as metas de emissões GEE que os países que o ratificaram acordaram, até 2012. Os meios científicos alertam, que será muito importante limitar o aquecimento global a 2 Graus até 2020. Para se caminhar no sentido da Mitigação das Alterações Climáticas surge o desenvolvimento sustentável. Conforme o Relatório da Comissão Brundtland, este é definido como ― a forma de satisfazer as necessidades do presente sem comprometer a capacidade de as gerações futuras poderem também satisfazer as suas‖. O desenvolvimento sustentável obriga-nos a olhar para o Planeta com outros olhos. De repente, percebemos que afinal os recursos que a mãe Terra nos oferece não são ilimitados e que a forma como os usamos não é isenta. A nossa vida neste maravilhoso planeta azul pode estar em risco. Mais: a vida dos nossos filhos que amamos poderá estar em risco ou no mínimo, eles poderão não ter à sua disposição, aquilo que nós tivemos. Todas as áreas de intervenção do homem terão de ser analisadas. Esta estratégia terá de ser assumida globalmente. A nossa vida privada deverá mudar, as nossas cidades deverão mudar. As cidades inteligentes ou Smartcities enquadram todas as áreas que as compõem nos pressupostos do novo modelo: o desenvolvimento sustentável. Uma das áreas é representada pelos edifícios. Os edifícios são responsáveis por uma fatia muito grande no consumo energético total. Na União Europeia o seu consumo representa cerca de 40% do total de energia final, e consequentemente são responsáveis por uma grande parte das emissões de GEE para a atmosfera. A Certificação Energética de Edifícios é o meio de promover o desenho de edifícios de menor consumo energético. Pretende-se que num futuro próximo o consumo dos edifícios seja perto do zero, ou zero. Esta pretensão aplicar-se-á a todos os edifícios: novos e existentes. Este trabalho pretende explicar o que acabámos de descrever e quem sabe iluminar um pouco mais o caminho para o desenvolvimento sustentável. Efectuou-se um levantamento e análise às casas passivas, analisamos a sua evolução, seu desenvolvimento, comparando as diferenças que será necessário implementar entre diferentes zonas climáticas (centro da Europa e Portugal). Desenvolvemos um estudo completo de eficiência energética de uma habitação localizada na zona de Sintra. Estudámos o impacto que seria a aplicação de isolamento exterior de cortiça, calculámos os ganhos percentuais. Numa altura em que a mudança de conceitos e mentalidades, se processa a diferentes velocidades, cria-se com este trabalho a oportunidade de desenvolver um documento orientador, destinado aos técnicos das especialidades envolvidas, uma dissertação; que constitua um ponto de partida para o desenvolvimento e aplicação de ideias e diferentes tecnologias sustentáveis, com conclusões. Introduziu-se neste estudo a Cortiça, como isolamento natural de origem nacional.
Resumo:
Este artigo analisa a questão da trans-nacionalização da linguagem publicitária e da sua eficácia. O mundo actual está num processo de grande transformação social e dele emerge um novo paradigma da comunicação comercial. A trans-nacionalização da linguagem publicitária põe em marcha dois processos paralelos. Por um lado, contribui para uma certa homogeneização cultural (visível sobretudo nos conceitos globais e na utilização do inglês como língua de ancoragem de sentido universal) e para a emergência de valores sociais de cariz global, porque desterritorizados. Outro processo é o da diversificação cultural, com valores diferenciados (que nascem da apropriação, transformação e re-contextualização de significações) que passam a operar como códigos, mais ou menos fechados, de comunidades sociais, de toda a espécie, que em torno deles se estruturam. Essa ocorrência, parece ser mais frequente entre as novas gerações (mas não necessariamente) e estas também usam, normalmente, certas marcas e certos objectos de consumo, quase sempre ligados ao segmento da moda, que se transformam em símbolos de pertença da tribo. A mudança de paradigma faz realçar o factor criatividade como garante da eficácia publicitária. Uma das principais consequências desta mudança de paradigma é que as marcas deixarão de entrar facilmente na casa do consumidor e na sua mente através de uma estratégia cerrada de “bombardeamento” e a linguagem publicitária deverá retornar aos valores sociais e culturais importantes, oferecendo espectáculo, sonho, significado e relação. Porque, afinal, não basta colocar as campanhas publicitárias internacionais no ar, é necessário que os conceitos criativos possam “voar”.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
A necessidade que as indústrias têm, hoje em dia, de lidar com processos cada vez mais complexos, onde a quantidade de variáveis a controlar e restrições processuais a impor aumentou exponencialmente nas últimas décadas. Uma maior competitividade e eficiência, lado-a-lado com a redução de custos, proporcionou à comunidade científica e industrial explorar mais profundamente o controlo de processos, com vista à construção de técnicas avançadas para fazer face a estas exigências. O controlo preditivo baseado em modelos - MPC- engloba diversas classes de controladores que utilizam algoritmos de predição/previsão e modelos matemáticos representativos do sistema, que juntamente com restrições processuais permitem operar junto de referências e tornar o controlo mais eficiente e seguro. O sucesso do MPC nos sistemas lineares com restrições deve-se, sobretudo, ao facto de reduzir o problema de optimização a um problema de programação quadrática, de fácil implementação e resolução. Além do mais, trata-se de um tipo de controlo bastante flexível e, ao mesmo tempo, mais robusto que o controlo clássico ou convencional, já que pode lidar com processos multivariáveis sem precisar de alterações significativas na sua construção. Neste trabalho aplicam-se técnicas de controlo preditivo a processos não lineares multivariáveis. Estuda-se, ainda, o desempenho desta classe de controladores comparando-a com técnicas de controlo convencional. Nomeadamente, estuda-se um sistema de três tanques em que o caudal é manipulado através de válvulas com característica não linear. O processo é modelado através de princípios de conservação e é validado por um conjunto real de ensaios que permitiu, ainda, obter experimentalmente a característica das válvulas. O modelo validado permitiu desenvolver um controlador preditivo multivariável para controlar os níveis da instalação. Demonstra-se que os controladores preditivos apresentam grandes vantagens em relação ao controlo clássico com malhas independentes.
Resumo:
O presente projecto tem como objectivo a disponibilização de uma plataforma de serviços para gestão e contabilização de tempo remunerável, através da marcação de horas de trabalho, férias e faltas (com ou sem justificação). Pretende-se a disponibilização de relatórios com base nesta informação e a possibilidade de análise automática dos dados, como por exemplo excesso de faltas e férias sobrepostas de trabalhadores. A ênfase do projecto está na disponibilização de uma arquitectura que facilite a inclusão destas funcionalidades. O projecto está implementado sobre a plataforma Google App Engine (i.e. GAE), de forma a disponibilizar uma solução sob o paradigma de Software as a Service, com garantia de disponibilidade e replicação de dados. A plataforma foi escolhida a partir da análise das principais plataformas cloud existentes: Google App Engine, Windows Azure e Amazon Web Services. Foram analisadas as características de cada plataforma, nomeadamente os modelos de programação, os modelos de dados disponibilizados, os serviços existentes e respectivos custos. A escolha da plataforma foi realizada com base nas suas características à data de iniciação do presente projecto. A solução está estruturada em camadas, com as seguintes componentes: interface da plataforma, lógica de negócio e lógica de acesso a dados. A interface disponibilizada está concebida com observação dos princípios arquitecturais REST, suportando dados nos formatos JSON e XML. A esta arquitectura base foi acrescentada uma componente de autorização, suportada em Spring-Security, sendo a autenticação delegada para os serviços Google Acounts. De forma a permitir o desacoplamento entre as várias camadas foi utilizado o padrão Dependency Injection. A utilização deste padrão reduz a dependência das tecnologias utilizadas nas diversas camadas. Foi implementado um protótipo, para a demonstração do trabalho realizado, que permite interagir com as funcionalidades do serviço implementadas, via pedidos AJAX. Neste protótipo tirou-se partido de várias bibliotecas javascript e padrões que simplificaram a sua realização, tal como o model-view-viewmodel através de data binding. Para dar suporte ao desenvolvimento do projecto foi adoptada uma abordagem de desenvolvimento ágil, baseada em Scrum, de forma a implementar os requisitos do sistema, expressos em user stories. De forma a garantir a qualidade da implementação do serviço foram realizados testes unitários, sendo também feita previamente a análise da funcionalidade e posteriormente produzida a documentação recorrendo a diagramas UML.
Resumo:
Reinforcement Learning is an area of Machine Learning that deals with how an agent should take actions in an environment such as to maximize the notion of accumulated reward. This type of learning is inspired by the way humans learn and has led to the creation of various algorithms for reinforcement learning. These algorithms focus on the way in which an agent’s behaviour can be improved, assuming independence as to their surroundings. The current work studies the application of reinforcement learning methods to solve the inverted pendulum problem. The importance of the variability of the environment (factors that are external to the agent) on the execution of reinforcement learning agents is studied by using a model that seeks to obtain equilibrium (stability) through dynamism – a Cart-Pole system or inverted pendulum. We sought to improve the behaviour of the autonomous agents by changing the information passed to them, while maintaining the agent’s internal parameters constant (learning rate, discount factors, decay rate, etc.), instead of the classical approach of tuning the agent’s internal parameters. The influence of changes on the state set and the action set on an agent’s capability to solve the Cart-pole problem was studied. We have studied typical behaviour of reinforcement learning agents applied to the classic BOXES model and a new form of characterizing the environment was proposed using the notion of convergence towards a reference value. We demonstrate the gain in performance of this new method applied to a Q-Learning agent.
Resumo:
Associado à escassez dos combustíveis fósseis e ao desejado controlo de emissões nocivas para a atmosfera, assistimos no mundo ao desenvolvimento do um novo paradigma — a mobilidade eléctrica. Apesar das variações de maior ou menor arbítrio político dos governos, do excelente ou débil desenvolvimento tecnológico, relacionados com os veículos eléctricos, estamos perante um caminho, no que diz respeito à mobilidade eléctrica, que já não deve ser encarado como uma moda mas como uma orientação para o futuro da mobilidade. Portugal tendo dado mostras que pretende estar na dianteira deste desafio, necessita equacionar e compreender em que condições existirá uma infra-estrutura nacional capaz de fazer o veículo eléctrico vingar. Assim, neste trabalho, analisa-se o impacto da mobilidade eléctrica em algumas dessas infra-estruturas, nomeadamente nos edifícios multi-habitacionais e redes de distribuição em baixa tensão. São criados neste âmbito, quatro perfis de carregamento dos EVs nomeadamente: nas horas de chegada a casa; nas horas de vazio com início programado pelo condutor; nas horas de vazio controlado por operador de rede (“Smart Grid”); e um cenário que contempla a utilização do V2G. Com a obrigação legal de nos novos edifícios serem instaladas tomadas para veículos eléctricos, é estudado, com os cenários anteriores a possibilidade de continuar a conceber as instalações eléctricas, sem alterar algumas das disposições legais, ao abrigo dos regulamentos existentes. É também estudado, com os cenários criados e com a previsão da venda de veículos eléctricos até 2020, o impacto deste novo consumo no diagrama de carga do Sistema Eléctrico Nacional. Mostra-se assim que a introdução de sistemas inteligentes de distribuição de energia [Smartgrid e vehicle to grid” (V2G)] deverá ser encarada como a solução que por excelência contribuirá para um aproveitamento das infra-estruturas existentes e simultaneamente um uso acessível para os veículos eléctricos.
Resumo:
As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.
Resumo:
Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação de vídeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação de vídeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos de vídeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.
Resumo:
O crescimento da utilização de accionamentos electromecânicos de velocidade variável entre outros dispositivos que necessitam de tensões elevadas, na ordem dos kV e com elevados níveis de qualidade, despertou o interesse pelos conversores multinível. Este tipo de conversor consegue alcançar elevadas tensões de funcionamento e simultaneamente melhorar a qualidade das formas de onda de tensão e corrente nas respectivas fases. Esta dissertação de mestrado tem por objectivo apresentar um estudo sobre o conversor multinível com díodos de ligação ao neutro (NPC – neutral point clamped), de cinco níveis utilizado como ondulador de tensão ligado à rede. O trabalho começa por desenvolver o modelo matemático do conversor multinível com díodos de ligação ao neutro de cinco níveis e a respectiva interligação com a rede eléctrica. Com base no modelo do conversor são realizadas simulações numéricas desenvolvidas em Matlab-Simulink. Para controlo do trânsito de energia no conversor é utilizando controlo por modo de deslizamento aplicado às correntes nas fases. As simulações efectuadas são comparadas com resultados de simulação obtidos para um ondulador clássico de dois níveis. Resultados de simulação do conversor multinível são posteriormente comparados com resultados experimentais para diferentes valores de potências activa e reactiva. Foi desenvolvido um protótipo experimental de um conversor multinível com díodos de ligação ao neutro de cinco níveis e a respectiva electrónica associada para comando e disparo dos semicondutores de potência.
Resumo:
O pinheiro tem um papel importante na ecologia e economia nacional. O Pinheiro sofre de uma praga severa, denominada por doença da murchidão dos pinheiros, causada pelo nemátodo da madeira do pinheiro (NMP). Apresenta-se como um verme microscópico, invertebrado, medindo menos de 1,5 mm de comprimento. O contágio entre árvores deve-se a vectores biologicamente conhecidos por longicórneo e capricórnio do pinheiro. Os produtores de madeira de pinho são desta forma obrigados a efectuar tratamentos térmicos (HT), de eliminação do NMP e dos seus vectores para que a exportação da madeira serrada cumpra com a norma NP 4487. De modo a manter a competitividade internacional das empresas nacionais, o impacto dos custos do HT deve ser minimizado. O objectivo desta dissertação é efectuar o estudo técnico-económico da implementação de um sistema de cogeração capaz produzir calor para efectuar o tratamento ao NMP e simultaneamente energia eléctrica para vender à rede pública. As receitas da venda de energia eléctrica poderão contribuir para a minimização dos custos do HT. Tendo em conta que os resíduos das serrações de madeira podem ser usados como combustível consideraram-se para avaliação duas tecnologias de cogeração, um sistema de turbina a vapor clássico (ciclo Rankine) e um sistema Organic Rankine Cycle (ORC), permitindo ambas a queima dos resíduos das serrações de madeira. No que diz respeito à avaliação económica, foi desenvolvido um simulador de tecnologia/modalidade de remuneração que efectua cálculos consoante as necessidades térmicas de cada produtor, a potência eléctrica a instalar e indicadores económicos, VAL, TIR e PAYBACK da instalação do sistema de cogeração. O simulador desenvolvido aplica a nova legislação que enquadra o sistema jurídico e remuneratório da cogeração (DL 23/2010), na qual se consideram duas modalidades, geral e especial. A metodologia desenvolvida foi aplicada num caso real de uma serração de madeira e os principais resultados mostram que as soluções apresentadas, turbina a vapor e sistema ORC, não apresentam viabilidade económica. Através da análise de sensibilidade, conclui-se que um dos factores que mais influência a viabilidade económica do projecto é o tempo de funcionamento reduzido. Sendo uma das soluções apresentada a criação de uma central de cogeração para vários produtores de madeira. Uma possível solução para o problema do reduzido tempo de utilização seria o fornecimento do serviço de tratamentos térmicos a outros produtores de paletes de madeira que não possuem estufa própria.
Resumo:
Neste texto, apresenta-se uma leitura de Uma Fábula, de António Franco Alexandre. Explora-se sobretudo a ideia de uma poesia que desenvolve o tema do amor, através da recuperação do topos clássico da metamorfose do sujeito apaixonado. Igualmente determinante nestes poemas é o desenvolvimento de uma consciência da identidade pessoal no estabelecimento de uma pluralidade de vozes dramáticas que confluem no sujeito.
Resumo:
No centro desta reflexão teórica situa-se a conjuntura sociopolítica que fez (re)emergir o 1.º ciclo do ensino básico como “problema” de política educativa, ou seja, como terreno prioritário para o Estado, através do Governo, formular e executar um “modelo” de operacionalização da política de “Escola a Tempo Inteiro” (ETI). Analisamos esta política reportando-a a referenciais de representação de um “novo modelo educativo” (dimensão educativa), de um “novo paradigma de escola pública” (dimensão política) e de uma “nova conceção de administração da educação” (dimensão administrativa). O recurso ao quadro heurístico da “análise das políticas públicas” permite pôr em evidência as representações e a ação governativas. At the centre of this theoretical reflection is the socio-political conjuncture that (re)emerged the 1st. cycle of basic education as an education policy “problem”, that is to say, a priority ground to the State, through the Government, create and implement an operational “model” for “full-time school” policy. We analyse this policy by referring to the referential representation of a “new educational model” (educational dimension), a “new paradigm of public school” (political dimension) and a “new conception of educational administration” (administrative dimension). The use of the heuristic framework of “public policy analysis” allows us to highlight the representations and governmental action.
Resumo:
Mestrado em Intervenção Sócio-Organizacional na Saúde - Área de especialização: Políticas de Administração e Gestão de Serviços de Saúde.