89 resultados para Modelo de Referência
Resumo:
Esta tese pretende contribuir para o estudo e análise dos factores relacionados com as técnicas de aquisição de imagens radiológicas digitais, a qualidade diagnóstica e a gestão da dose de radiação em sistema de radiologia digital. A metodologia encontra-se organizada em duas componentes. A componente observacional, baseada num desenho do estudo de natureza retrospectiva e transversal. Os dados recolhidos a partir de sistemas CR e DR permitiram a avaliação dos parâmetros técnicos de exposição utilizados em radiologia digital, a avaliação da dose absorvida e o índice de exposição no detector. No contexto desta classificação metodológica (retrospectiva e transversal), também foi possível desenvolver estudos da qualidade diagnóstica em sistemas digitais: estudos de observadores a partir de imagens arquivadas no sistema PACS. A componente experimental da tese baseou-se na realização de experiências em fantomas para avaliar a relação entre dose e qualidade de imagem. As experiências efectuadas permitiram caracterizar as propriedades físicas dos sistemas de radiologia digital, através da manipulação das variáveis relacionadas com os parâmetros de exposição e a avaliação da influência destas na dose e na qualidade da imagem. Utilizando um fantoma contraste de detalhe, fantomas antropomórficos e um fantoma de osso animal, foi possível objectivar medidas de quantificação da qualidade diagnóstica e medidas de detectabilidade de objectos. Da investigação efectuada, foi possível salientar algumas conclusões. As medidas quantitativas referentes à performance dos detectores são a base do processo de optimização, permitindo a medição e a determinação dos parâmetros físicos dos sistemas de radiologia digital. Os parâmetros de exposição utilizados na prática clínica mostram que a prática não está em conformidade com o referencial Europeu. Verifica-se a necessidade de avaliar, melhorar e implementar um padrão de referência para o processo de optimização, através de novos referenciais de boa prática ajustados aos sistemas digitais. Os parâmetros de exposição influenciam a dose no paciente, mas a percepção da qualidade de imagem digital não parece afectada com a variação da exposição. Os estudos que se realizaram envolvendo tanto imagens de fantomas como imagens de pacientes mostram que a sobreexposição é um risco potencial em radiologia digital. A avaliação da qualidade diagnóstica das imagens mostrou que com a variação da exposição não se observou degradação substancial da qualidade das imagens quando a redução de dose é efectuada. Propõe-se o estudo e a implementação de novos níveis de referência de diagnóstico ajustados aos sistemas de radiologia digital. Como contributo da tese, é proposto um modelo (STDI) para a optimização de sistemas de radiologia digital.
Resumo:
Objectivos de estudo: identificar as principais variáveis estudadas na prova de esforço cardio-pulmonar (PECP); caracterizar as suas respostas normais durante a PECP; discutir a selecção dos valores de referência.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
Este trabalho teve como objectivos estudar a relação entre os teores de aerossóis medidos na cidade de Lisboa e as condições meteorológicas registadas. O período de amostragem decorreu entre 20 de Janeiro e 19 de Fevereiro de 2009, a designada “Campanha de Inverno” do Projecto de Investigação “Contaminação da atmosfera urbana de Lisboa por Hidrocarbonetos Aromáticos Policíclico (PAHLis)”. Foram seleccionados dois locais da cidade de Lisboa com diferentes níveis de poluição: Olivais e Avenida da Liberdade. Nestes locais existem também estações da Rede da Qualidade do Ar cujos dados foram usados para completar e validar os dados por nós recolhidos. O étodo usado para a determinação da concentração de PM foi o método de referência (método gravimétrico) referido pelas normas EN 12341:1998 e EN 14907:2005. Em cada local, foram recolhidas partículas em suspensão no ar através de amostradores Gent e High-Vol. O Gent é um amostrador de baixo volume (cerca de 12 L de ar por minuto) que possui duas unidades de filtros de policarbonato de dois tamanhos de poro sendo assim possível a recolha de partículas PM2.5 e PM10-2.5 separadamente. O High-Vol é um equipamento de amostragem de alto volume (cerca de 1 m3 de ar por minuto) e onde foram usados dois filtros de quartzo em cascata para a recolha de partículas PM2.5 e PM10-2.5. Verificou-se que os amostradores não foram totalmente eficazes na separação das partículas, segundo os diâmetros aerodinâmicos pretendidos. Os dados apresentaram alguma discrepância face aos dados obtidos pelos High-Vol e também face aos dados obtidos pelos medidores das estações. Optou-se assim pela utilização dos dados obtidos com o amostrador High-Vol. Verifica-se que a Avenida da Liberdade é dos locais de estudo o mais poluído e que a concentração da fracção fina é mais elevada. Tal facto deve-se provavelmente à intensa circulação automóvel, principal fonte poluidora no local. Para o período em estudo e neste local, foi obtida uma média de 16.5 µg/m3 de PM 10-2.5 e 21.9 µg/m3 de PM 2.5. No mesmo período registou-se nos Olivais uma média de 9.0 µg/m3 para a fracção grosseira e 12.3 µg/m3 para a fracção fina. Os dados meteorológicos foram fornecidos pelas estações meteorológicas localizadas nas imediações dos locais em estudo: estação MeteoPortela e estação do Instituto Dom Luiz. Foram recolhidos e tratados dados de temperatura, precipitação, humidade, velocidade e direcção do vento. Com recurso à análise de componentes principais (PCA) foi possível verificar a relação e influência das condições meteorológicas sobre os teores de partículas. Foi possível a redução das variáveis iniciais tendo-se concluído que a humidade, a percipitação e a velocidade do vento são as condições que maior influência têm sobre as partículas. Um aumento destas variáveis provoca uma diminuição global do teor das partículas. Para uma clara definição de um modelo PCA para estes dados, os estudos deverão se prolongados no tempo.
Resumo:
O objetivo geral deste artigo é analisar os fatores de ordem social que influenciam a saúde dos homens portugueses, em particular os comportamentos que se associam à construção das masculinidades. Para satisfazer o objetivo da pesquisa proceder‑se‑á à análise de alguns indicadores estatísticos produzidos por fontes oficiais, de natureza amostral ou administrativa, como o INE ou o EUROSTAT. O modelo de masculinidade que emerge da análise dos indicadores nacionais apresentados remete para um ideário de género muito associado a estilos de vida e desempenho de profissões com impacto negativo na esperança média de vida dos homens portugueses. Tendo como referência as mulheres, destaca‑se no caso dos homens: maior taxa de acidentes de viação; consumo de álcool e tabaco mais acentuado e prematuro; mais mortes associadas ao consumo de drogas; mais mortes autoprovocadas intencionalmente; maior incidência da SIDA; maior número de acidentes de trabalho. ABSTRACT - The purpose of this article is to analyze the social factors that influence the health of Portuguese men, namely the behaviors that can be associated to the construction of masculinities. To satisfy this objective we will analyze some statistical indicators produced by official sources like INE or EUROSTAT. The model of masculinity that emerges from national indicators analysis is associated to behaviors and consumptions with a negative impact in Portuguese men health and life expectancy. In this article we highlight some of these behaviors: biggest rate of transport accidents; larger and early alcohol and tobacco consumption; more deaths associated to the consumption of drugs; more auto provoked deaths; bigger AIDS incidence; more occupational accidents.
Resumo:
Em Portugal não são conhecidos estudos publicados que identifiquem com clareza as distribuições típicas dos valores associados aos parâmetros técnicos de exposição utilizados nos exames radiológicos mais comuns. Este estudo tem como objectivos identificar os parâmetros técnicos utilizados em exames radiológicos convencionais na região de Lisboa e comparar os dados com a referência europeia CEC. Os resultados obtidos evidenciam que nas projecções estudadas existe uma predominância para o uso de termos de exposição acima da recomendação CEC e de valores de potencial da ampola (kV) abaixo da recomendação. Esta investigação sugere a necessidade de fixar os NRD nacionais, e/ou locais, e efectuar as respectivas medições, dado que a optimização da exposição é um mecanismo de controlo fundamental para limitar as exposições desnecessárias dos pacientes às radiações ionizantes. Conclui-se que a nível local (região da Grande Lisboa) existe um desconhecimento da prática radiológica enquadrada nos referenciais europeus de boa prática radiológica. Desconhecendo-se a situação a nível nacional, sugerem-se estudos no sentido de identificar os padrões de prática radiológica a nível do País e de promover a optimização dos procedimentos em radiologia convencional. ABSTRACT - Typical distribution of exposure parameters in plain radiography is unknown in Portugal. This study aims to identify exposure parameters that are being used in plain radiography in Lisbon area and to compare collected data with European references (CEC guidelines). Results show that in the four anatomic regions there is a strong tendency of using exposure times above the European recommendation. We also found that x-ray tube potential values (kV) are below the recommended values from CEC guidelines. This study shows that at a local level (Lisbon region) radiographic practice does not fit with CEC guidelines concerning exposure techniques. We suggest continuing national/local studies with the objective to improve exposure optimization and technical procedures in plain radiography. This study also suggests the need to establish national/local DRL’s and to proceed to effective measurements for exposure optimization.
Resumo:
Actualmente a Tomografia Computorizada (TC) é um dos métodos de diagnóstico por imagem que tem uma maior contribuição para a dose de radiação X recebida pelos pacientes. Pretende-se com este estudo avaliar as doses praticadas em TC e contribuir para o estabelecimento de Níveis de Referência de Diagnóstico (NRD) na região da Grande Lisboa, Portugal. Foram efectuadas medições de dose em 5 equipamentos de TC multidetectores, considerando o abdómen como área anatómica de interesse. Recorreu-se a uma câmara de ionização e a um fantoma para obter o índice de dose de TC (CTDI) e o produto dose-comprimento (DLP), que permitem determinar os NRD. Estes valores foram comparados com os NRD propostos pela Guideline Europeia e com os estudos desenvolvidos em outros países, como o Reino Unido, Grécia e Taiwan. Os resultados revelaram que os valores de NRD obtidos neste estudo (16,7 mGy para o CTDIvol e 436,5 mGy·cm para o DLP) são discrepantes relativamente à Guideline Europeia (±50%), mas muito próximos relativamente aos NRD estabelecidos nos países considerados. Estes valores podem ser eventualmente explicados pelos equipamentos em análise e pela utilização de protocolos de exame adoptados pelos profissionais de Radiologia nas instituições analisadas. ABSTRACT - Nowadays Computed Tomography (CT) is one of the imaging techniques which have a large contribution to radiation dose received by patients. The purpose of this study is to evaluate CT doses and contribute to the establishment of Diagnostic Reference Levels (DRL) in Lisbon, Portugal. Dose measurements on 5 multidetector CT scanners have been performed, considering the abdomen as the anatomic region of interest. All measurements were performed using an ionization chamber and a phantom to obtain the index CT dose (CTDI) and the dose-length product (DLP), which are used to determine DRL. These values were compared not only with European reference dose values but also with DRL studies developed in other countries like United Kingdom, Greece and Taiwan. The results revealed that DRL values obtained in this study (CTDIvol is 16,7 mGy and DLP is 436,5 mGy·cm) have a higher discrepancy to European Guideline (±50%), while the DRL´s of other countries are nearest to values obtained in this study. Those differences may be eventually explained by the type of the evaluated equipments but also by the exam protocols used by the Radiology professionals on the analyzed institutions.
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
Reinforcement Learning is an area of Machine Learning that deals with how an agent should take actions in an environment such as to maximize the notion of accumulated reward. This type of learning is inspired by the way humans learn and has led to the creation of various algorithms for reinforcement learning. These algorithms focus on the way in which an agent’s behaviour can be improved, assuming independence as to their surroundings. The current work studies the application of reinforcement learning methods to solve the inverted pendulum problem. The importance of the variability of the environment (factors that are external to the agent) on the execution of reinforcement learning agents is studied by using a model that seeks to obtain equilibrium (stability) through dynamism – a Cart-Pole system or inverted pendulum. We sought to improve the behaviour of the autonomous agents by changing the information passed to them, while maintaining the agent’s internal parameters constant (learning rate, discount factors, decay rate, etc.), instead of the classical approach of tuning the agent’s internal parameters. The influence of changes on the state set and the action set on an agent’s capability to solve the Cart-pole problem was studied. We have studied typical behaviour of reinforcement learning agents applied to the classic BOXES model and a new form of characterizing the environment was proposed using the notion of convergence towards a reference value. We demonstrate the gain in performance of this new method applied to a Q-Learning agent.
Resumo:
O objectivo deste trabalho passa pelo desenvolvimento de uma ferramenta de simulação dinâmica de recursos rádio em LTE no sentido descendente, com recurso à Framework OMNeT++. A ferramenta desenvolvida permite realizar o planeamento das estações base, simulação e análise de resultados. São descritos os principais aspectos da tecnologia de acesso rádio, designadamente a arquitectura da rede, a codificação, definição dos recursos rádio, os ritmos de transmissão suportados ao nível de canal e o mecanismo de controlo de admissão. Foi definido o cenário de utilização de recursos rádio que inclui a definição de modelos de tráfego e de serviços orientados a pacotes e circuitos. Foi ainda considerado um cenário de referência para a verificação e validação do modelo de simulação. A simulação efectua-se ao nível de sistema, suportada por um modelo dinâmico, estocástico e orientado por eventos discretos de modo a contemplar os diferentes mecanismos característicos da tecnologia OFDMA. Os resultados obtidos permitem a análise de desempenho dos serviços, estações base e sistema ao nível do throughput médio da rede, throughput médio por eNodeB e throughput médio por móvel para além de permitir analisar o contributo de outros parâmetros designadamente, largura de banda, raio de cobertura, perfil dos serviços, esquema de modulação, entre outros. Dos resultados obtidos foi possível verificar que, considerando um cenário com estações base com raio de cobertura de 100 m obteve-se um throughput ao nível do utilizador final igual a 4.69494 Mbps, ou seja, 7 vezes superior quando comparado a estações base com raios de cobertura de 200m.
Resumo:
Este estudo, de natureza qualitativa e de tipo exploratório e descritivo, visa conhecer como se organizam os Agrupamentos sem Escolas de Referência para Educação Bilingue, de forma a dar resposta às necessidades educativas especiais (NEE) dos alunos surdos do 1.º Ciclo do Ensino Básico. Utilizámos a entrevista semi-directiva, de forma a: i) conhecer as percepções dos vários agentes educativos sobre a inclusão dos alunos surdos em turmas regulares do 1º CEB; ii) identificar as formas de adequação curricular mais utilizada para alunos surdos em turmas inclusivas; iii) caracterizar as necessidades dos Agrupamentos sem Escolas de Referência para Educação Bilingue para dar resposta às Necessidades Educativas Especiais dos alunos surdos. Foram entrevistados 10 docentes com diferentes funções no ensino: 2 directores de agrupamento, 3 professores de educação especial, 2 coordenadores de grupo de educação especial, 2 professores titulares e 1 coordenador de conselho de docentes. O cruzamento dos dados resultantes das entrevistas aos professores com diferentes funções nos Agrupamentos sem Escolas de Referência permitiu-nos conhecer as concepções dos profissionais sobre a inclusão em termos gerais e das crianças surdas em particular. Foi-nos possível concluir que os agentes educativos revelam alguma ansiedade profissional relativamente à inclusão dos alunos surdos em turmas regulares, demonstrando uma particular atenção à necessidade de obterem formação específica na área. Relacionam grande parte das limitações sentidas na adequação de respostas para alunos surdos com a precariedade de recursos, quer humanos, quer materiais. Os profissionais equacionam ainda o problema do atendimento a alunos surdos em regiões em que estes são em número reduzido, não justificando a criação de uma Escola de Referência para a Educação Bilingue e reflectem sobre as condições necessárias para que os Agrupamentos que não possuem essas Escolas possam dar uma resposta educativa satisfatória aos alunos surdos
Resumo:
Nesta dissertação descreve-se uma metodologia de dimensionamento do sistema de tracção para equipar um veículo eléctrico ecológico (VEECO) com inclusão de um sistema de travagem regenerativa. Apresenta-se uma perspectiva geral de diversas topologias de sistemas de tracção utilizadas nos veículos eléctricos e realiza-se a sua comparação através do estudo e análise dos acionamentos electromecânicos que podem ser utilizados nesses sistemas de tracção eléctrica. Utilizando ferramentas de simulação numérica, estuda-se o modelo matemático de um veículo eléctrico com travagem regenerativa. A partir deste modelo matemático é adoptado uma possível configuração para o seu sistema de tracção eléctrica e são obtidas características teóricas de desempenho do veículo eléctrico, através da análise de testes padrão ao veículo. Em banco de ensaios, constrói-se um sistema de tracção eléctrica que permite a validação experimental do modelo matemático do veículo eléctrico. Para a construção deste banco de ensaios foram concebidos os sistemas de tracção eléctrica, de carga mecânica e de controlo e monitorização do banco de ensaios. A validação experimental realiza-se através dos mesmos testes padrão ao veículo eléctrico, como o teste NEDC (New European Driving Cycle), o teste de aceleração entre 0 e 100km/h e o teste de gradeabilidade. Desenvolve-se o dimensionamento do sistema de tracção eléctrica a equipar o VEECO, através da componente de modelação paramétrica do modelo matemático do veículo eléctrico. Com esta metodologia é adoptado um conjunto de variáveis paramétricas relacionadas com os elementos que constituem o sistema de tracção eléctrica do VEECO. Estuda-se a influência destas variáveis paramétricas nas características de desempenho pretendidas para o VEECO. Como resultado da análise de modelação paramétrica é apresentada uma solução para o sistema de tracção eléctrica do VEECO que cumpre a execução do NEDC, apresenta um tempo de aceleração entre 0 e 100km/h inferior a 10 segundos, supera uma gradeabilidade de 10% e uma autonomia de 200 km. O sistema de tracção do VEECO também permite realizar a travagem regenerativa com rendimento até 33%. Possui controlo de tracção e anti bloqueio da roda motora, através de uma unidade de controlo que permite reduzir a potência transmitida ao veio, quando a velocidade da roda de tracção difere do valor de referência da velocidade do veículo. Os conhecimentos adquiridos através do processo de investigação e desenvolvimento, para a realização da presente dissertação permitem apresentar perspectivas de desenvolvimento futuro com aplicação nos sistemas de tracção de veículos eléctricos rodoviários.
Resumo:
A teoria económica contemporânea assenta grande parte do seu raciocínio na ideia de que é possível compreender o comportamento dos agentes económicos e a complexidade das relações que entre eles se estabelecem reduzindo esse comportamento às escolhas de um agente representativo. Este agente procura maximizar a utilidade do consumo perante determinada restrição de recursos que ele, ou o sistema económico como um todo, enfrenta. Apesar de esta ideia não estar isenta de possível crítica e de o caminho da modelização ser cada vez mais o de considerar agentes heterogéneos em interação, a verdade é que se trata de um conceito poderoso, que permite compreender mecanismos lógicos relevantes, num contexto que é frequentemente assumido como dinâmico e intertemporal. Neste capítulo, caracterizam-se os pilares fundamentais do modelo de agente representativo.
Resumo:
Neste capítulo recorre-se ao modelo intertemporal de agente representativo para explicar aspetos importantes das finanças públicas e do impacto destas sobre as decisões dos agentes económicos privados. Apresenta-se a restrição orçamental dinâmica do Estado, debate-se o conceito de equivalência Ricardiana, discute-se a implementação de diferentes sistemas fiscais, desenvolvem-se algumas ideias sobre o financiamento da segurança social e sobre a eficácia das políticas de apoio social. Por fim, é descrita com algum pormenor uma estrutura teórica na qual estão presentes alguns dos elementos fundamentais do modelo macroeconómico contemporâneo de referência (o modelo novo-Keynesiano), como a rigidez de preços ou a condução da política monetária via regras de Taylor.