46 resultados para Otimização de circuitos
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
O elevado custo da operação de recolha de resíduos urbanos e a necessidade de cumprir metas dispostas em instrumentos legais são duas motivações que conduzem à necessidade de otimizar o serviço da recolha de resíduos. A otimização da recolha de resíduos é um problema de elevada complexidade de resolução que envolve a análise de redes de transporte. O presente trabalho propõe soluções de otimização da recolha de resíduos urbanos indiferenciados, a partir de um caso de estudo: o percurso RSU I 06 do município de Aveiro. Para este efeito, recorreu-se a uma aplicação informática de representação e análise geográfica: software ArcGIS denominada ArcMap e sua extensão Network Analyst, desenvolvida para calcular circuitos otimizados entre pontos de interesse. O trabalho realizado de aplicação do Network Analyst inclui a apresentação de duas das suas funcionalidades (Route e Vehicle Routing Problem). Em relação ao atual circuito de recolha e com base nos ensaios efetuados, foi possível concluir que esta aplicação permite obter circuitos de recolha otimizados mais curtos ou com menor duração. Contudo, ao nível da gestão permitiu concluir que, com a atual capacidade de contentorização, seria viável reduzir a frequência de recolha de seis vezes por semana para metade, dividindo a área de recolha em duas áreas, de acordo com as necessidades de cada local, reduzindo ainda mais o esforço de recolha. A aplicação do Network Analyst ao caso de estudo, permitiu concluir que é um software com muito interesse no processo de gestão da recolha de resíduos urbanos, apesar de apresentar algumas restrições de aplicação e que a qualidade/eficácia do procedimento de otimização depende da qualidade dos dados de entrada, em particular do descritivo geográfico disponível para os arruamentos e, em larga medida, também depende do modelo de gestão considerado.
Resumo:
O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.
Resumo:
O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
No panorama energético atual, medidas de desenvolvimento sustentável têm uma preponderância cada vez mais significativa e, sendo os edifícios responsáveis por 40% da energia consumida na EU, enquadra-se o desafio de integrar medidas de eficiência energética nos novos edifícios desde a fase de conceção. Sendo que este setor se encontra em contínua expansão, a redução dos consumos passará largamente pela otimização do comportamento térmico dos edifícios e dos sistemas energéticos que os equipam. No presente trabalho estudou-se o papel da inércia térmica na redução das necessidades de energia para climatização de edifícios com o objetivo de identificar estratégias destinadas ao melhoramento do comportamento térmico e desempenho energético de edifícios construídos com recurso à técnica construtiva LSF, caracterizados por uma fraca inércia térmica quando comparados com edifícios em tudo semelhantes mas construídos recorrendo a tecnologias convencionais sem esquecer as questões relacionadas com a respetiva viabilidade económica. Com resultado geral destaca-se desde logo a importância do local onde é mais benéfico adicionar massa térmica (paredes exteriores, cobertura, paredes interiores), assim como a necessidade de utilização de um material com elevada densidade energética e baixo custo. A análise comparativa dos diferentes modelos de edifício simulados com recurso ao software DesignBuilder/EnergyPlus, foi realizada recorrendo a uma metodologia em que cada modelo construtivo é avaliado considerando quatro níveis de isolamento térmico e duas condições de cargas térmicas internas. A análise energética e económica foi realizada tendo como referência um período de 20 anos. O custo das soluções construtivas foi maioritariamente obtido através da ferramenta computacional Gerador de Preços, da Cype, SA©, tendo-se considerado um consumo energético anual constante e igual às necessidades de climatização anuais, assim como taxas de atualização de capital e de inflação do custo da energia constantes. De uma forma geral conclui-se que edifícios do tipo LSF melhorados através da adição criteriosa de massa térmica em determinados elementos construtivos, apresentam necessidades de climatização anuais na maioria dos casos estudados, inferiores àquelas verificadas em edifícios convencionais com inércia térmica média/forte. Conclui-se, também, que o método construtivo LSF se apresenta mais eficaz em termos energéticos e económicos quando comparado com soluções semelhantes construídas com recurso a um método convencional. Na secção seguinte são identificadas as principais conclusões deste trabalho.
Resumo:
Os problemas relacionados com o consumo energético e as emissões de poluentes relativas ao setor dos transportes representam seguramente a maior preocupação ao nível Europeu no que respeita aos gases com efeito de estufa e à poluição atmosférica. Uma das formas de resolver/minimizar estes problemas é através da aposta em combustíveis alternativos. Em particular, os biocombustíveis poderão ser uma alternativa interessante aos combustíveis convencionais. As microalgas, como matéria-prima para produção de biodiesel, apresentam-se com excelentes perspetivas de futuro e com vantagens competitivas no campo das energias renováveis. É nesta perspetiva que se enquadra o presente trabalho, cujos objetivos consistiram na extração de biodiesel a partir de microalgas secas (Nannochloropsis gaditana e Scenedesmus sp.) e na otimização das respetivas técnicas de extração lipídica. Verificou-se que, em função dos métodos e condições utilizadas, a espécie Nannochloropsis gaditana apresenta um potencial de produção de biodiesel superior à espécie Scenedesmus sp. (eficiências de extração de 24,6 (wt.%) e 9,4 (wt.%) respetivamente). Um método de rotura celular conjugado com o processo de extração lipídica via solvente orgânico é essencial, pois conseguiu-se um acréscimo de 42% no rendimento de extração, sendo 10 minutos o tempo ideal de operação. Solventes como o metanol e sistema de solventes diclorometano/metanol mostraram ser mais eficazes quando se pretende extrair lípidos de microalgas, com valores de eficiência de remoção de 30,9 (wt.%) e 23,2 (wt.%) respetivamente. De forma a valorizar os resultados obtidos no processo de extração recorreu-se à sua conversão em biodiesel através da transesterificação catalítica ácida, onde se obteve uma eficiência de conversão de 17,8 (wt.%) para a espécie Nannochloropsis gaditana.
Resumo:
Esta Dissertação aborda a temática da eficiência energética em sistemas de iluminação fabris. Desde os primórdios da história da humanidade que a iluminação tem representado um papel importante. Não só garante condições de segurança, como começou por ser o intuito primordial das fogueiras pré-históricas, traduzindo-se num elemento de conforto. Atualmente seria impensável conceber as mais diversas atividades económicas e produtivas de um país sem iluminação. Nesse sentido a iluminação representa também um elemento fomentador de produtividade. Não é bem conhecido o impacto que a iluminação tem nos custos operacionais de uma unidade fabril. Principalmente por ser difícil de quantificar separadamente na fatura de eletricidade qual a percentagem correspondente à iluminação. Tipicamente estes custos podem ascender a 20% do orçamento global da autarquia em países desenvolvidos. Por esse motivo, o sector da iluminação tem investido esforço no sentido de promover melhores soluções de iluminação capazes de por um lado de satisfazer os requisitos do espaço a iluminar, e por outro propiciar soluções eficientes do ponto de vista energético. Estas soluções assentam essencialmente no uso de dispositivos mais eficientes (como por exemplo os LED´s ou as lâmpadas compactas fluorescentes) bem como em estratégias de controlo eficientes baseadas em dados sensoriais (como por exemplo deteção de movimento/presença). A combinação destas estratégias permite reduzir os consumos em cerca de 80% quando comparadas com soluções passivas. A empresa Amorim Cork Research Lda. é uma empresa prestadora de serviços ao universo das empresas da Corticeira Amorim, uma das maiores multinacionais de origem portuguesa. Teve origem no negócio da cortiça, em 1870, sendo hoje líder destacada no sector a nível mundial. Dada a dimensão da empresa e a sua subdivisão em várias Unidades Industriais com requisitos individuais, será expectável que a iluminação represente uma parte significativa da fatura de eletricidade. Atualmente, os vários setores encontram-se equipados com soluções de iluminação diferentes, na sua maioria empregando tecnologias passivas, noutros casos com dispositivos eficientes. Há algum interesse em migrar para soluções mais eficientes, em parte suportadas em DALI (com interface de comunicação PLC ou Zigbee).
Resumo:
Dado a globalização dos negócios e o aumento da competitividade dos produtos, é cada vez mais difícil para as grandes empresas manter a sua posição no mercado. Este processo quer-se rápido, eficaz e com o menor custo possível. Para este efeito, a metodologia Lean tem oferecido respostas bastante interessantes às empresas, com a aplicação de ferramentas da metodologia muito simples mas muito eficientes. Garantir características no produto final que façam á empresa manter ou ganhar cota no mercado é fundamental. Como tal, as empresas tentam ao máximo garantir a qualidade e o aspecto visual do produto. Posto isto, foram efetuados vários trabalhos para fazer frente às situações acima apresentadas e fazer com que o produto continue competitivo, para que possa aumentar a sua margem de lucro, mantendo o seu valor no mercado. Os trabalhos efetuados foram: plano de manutenção autónoma, um estudo do efeito da velocidade do misturador no produto final e um balanceamento à linha de aglomeração. Com a aplicação do Plano de Manutenção Autónoma, foi possível eliminar desperdícios, tornar a linha mais organizada e limpa e instruir os operadores a serem mais responsáveis, organizados e críticos ao seu trabalho. Quanto ao estudo do efeito da velocidade do misturador no produto final, os resultados não foram os esperados, dado que com o ensaio industrial efetuado não foi possível melhorar significativamente o aspeto visual do produto. Apesar de não ter sido possível a sua implementação, com o estudo do Balanceamento da linha, junto com os dados recolhidos foi possível obter um conhecimento mais pormenorizado da linha, foi criada uma possibilidade de proteger a linha de possíveis flutuações do mercado e eliminação de desperdício e uma possibilidade de listagem de tarefas estandartizadas e equilibradas, promovendo um menor esforço aos operadores. Em síntese, com a elaboração destes trabalhos, foi possível provocar um impacto positivo na linha, tornando-a mais organizada, reduzindo desperdício, protegendo de flutuações do mercado e aumentando o conhecimento da mesma.
Resumo:
Esta tese insere-se na área da simulação de circuitos de RF e microondas, e visa o estudo de ferramentas computacionais inovadoras que consigam simular, de forma eficiente, circuitos não lineares e muito heterogéneos, contendo uma estrutura combinada de blocos analógicos de RF e de banda base e blocos digitais, a operar em múltiplas escalas de tempo. Os métodos numéricos propostos nesta tese baseiam-se em estratégias multi-dimensionais, as quais usam múltiplas variáveis temporais definidas em domínios de tempo deformados e não deformados, para lidar, de forma eficaz, com as disparidades existentes entre as diversas escalas de tempo. De modo a poder tirar proveito dos diferentes ritmos de evolução temporal existentes entre correntes e tensões com variação muito rápida (variáveis de estado activas) e correntes e tensões com variação lenta (variáveis de estado latentes), são utilizadas algumas técnicas numéricas avançadas para operar dentro dos espaços multi-dimensionais, como, por exemplo, os algoritmos multi-ritmo de Runge-Kutta, ou o método das linhas. São também apresentadas algumas estratégias de partição dos circuitos, as quais permitem dividir um circuito em sub-circuitos de uma forma completamente automática, em função dos ritmos de evolução das suas variáveis de estado. Para problemas acentuadamente não lineares, são propostos vários métodos inovadores de simulação a operar estritamente no domínio do tempo. Para problemas com não linearidades moderadas é proposto um novo método híbrido frequência-tempo, baseado numa combinação entre a integração passo a passo unidimensional e o método seguidor de envolvente com balanço harmónico. O desempenho dos métodos é testado na simulação de alguns exemplos ilustrativos, com resultados bastante promissores. Uma análise comparativa entre os métodos agora propostos e os métodos actualmente existentes para simulação RF, revela ganhos consideráveis em termos de rapidez de computação.
Resumo:
O presente trabalho tem como objectivo o estudo e projecto de receptores optimizados para sistemas de comunicações por fibra óptica de muito alto débito (10Gb/s e 40Gb/s), com a capacidade integrada de compensação adaptativa pós-detecção da distorção originada pela característica de dispersão cromática e de polarização do canal óptico. O capítulo 1 detalha o âmbito de aplicabilidade destes receptores em sistemas de comunicações ópticas com multiplexagem no comprimento de onda (WDM) actuais. O capítulo apresenta ainda os objectivos e principais contribuições desta tese. O capítulo 2 detalha o projecto de um amplificador pós-detecção adequado para sistemas de comunicação ópticos com taxa de transmissão de 10Gb/s. São discutidas as topologias mais adequadas para amplificadores pós detecção e apresentados os critérios que ditaram a escolha da topologia de transimpedância bem como as condições que permitem optimizar o seu desempenho em termos de largura de banda, ganho e ruído. Para além disso são abordados aspectos relacionados com a implementação física em tecnologia monolítica de microondas (MMIC), focando em particular o impacto destes no desempenho do circuito, como é o caso do efeito dos componentes extrínsecos ao circuito monolítico, em particular as ligações por fio condutor do monólito ao circuito externo. Este amplificador foi projectado e produzido em tecnologia pHEMT de Arsenieto de Gálio e implementado em tecnologia MMIC. O protótipo produzido foi caracterizado na fábrica, ainda na bolacha em que foi produzido (on-wafer) tendo sido obtidos dados de caracterização de 80 circuitos protótipo. Estes foram comparados com resultados de simulação e com desempenho do protótipo montado num veículo de teste. O capítulo 3 apresenta o projecto de dois compensadores eléctricos ajustáveis com a capacidade de mitigar os efeitos da dispersão cromática e da dispersão de polarização em sistemas ópticos com débito binário de 10Gb/s e 40Gb/s, com modulação em banda lateral dupla e banda lateral única. Duas topologias possíveis para este tipo de compensadores (a topologia Feed-Forward Equalizer e a topologia Decision Feedback Equaliser) são apresentadas e comparadas. A topologia Feed-Forward Equaliser que serviu de base para a implementação dos compensadores apresentados é analisada com mais detalhe sendo propostas alterações que permitem a sua implementação prática. O capítulo apresenta em detalhe a forma como estes compensadores foram implementados como circuitos distribuídos em tecnologia MMIC sendo propostas duas formas de implementar as células de ganho variável: com recurso à configuração cascode ou com recurso à configuração célula de Gilbert. São ainda apresentados resultados de simulação e experimentais (dos protótipos produzidos) que permitem tirar algumas conclusões sobre o desempenho das células de ganho com as duas configurações distintas. Por fim, o capítulo inclui ainda resultados de desempenho dos compensadores testados como compensadores de um sinal eléctrico afectado de distorção. No capítulo 4 é feita uma análise do impacto da modulação em banda lateral dupla (BLD) em comparação com a modulação em banda lateral única (BLU) num sistema óptico afectado de dispersão cromática e de polarização. Mostra-se que com modulação em BLU, como não há batimento entre portadoras das duas bandas laterais em consequência do processo quadrático de detecção e há preservação da informação da distorção cromática do canal (na fase do sinal), o uso deste tipo de modulação em sistemas de comunicação óptica permite maior tolerância à dispersão cromática e os compensadores eléctricos são muito mais eficientes. O capítulo apresenta ainda resultados de teste dos compensadores desenvolvidos em cenários experimentais de laboratório representativos de sistemas ópticos a 10Gb/s e 40Gb/s. Os resultados permitem comparar o desempenho destes cenários sem e com compensação eléctrica optimizada, para os casos de modulação em BLU e em BLD, e considerando ainda os efeitos da dispersão na velocidade de grupo e do atraso de grupo diferencial. Mostra-se que a modulação BLU em conjunto com compensação adaptativa eléctrica permite um desempenho muito superior á modulação em BLD largamente utilizada nos sistemas de comunicações actuais. Por fim o capítulo 5 sintetiza e apresenta as principais conclusões deste trabalho.
Resumo:
Este trabalho surge do interesse em substituir os nós de rede óptica baseados maioritariamente em electrónica por nós de rede baseados em tecnologia óptica. Espera-se que a tecnologia óptica permita maiores débitos binários na rede, maior transparência e maior eficiência através de novos paradigmas de comutação. Segundo esta visão, utilizou-se o MZI-SOA, um dispositivo semicondutor integrado hibridamente, para realizar funcionalidades de processamento óptico de sinal necessárias em nós de redes ópticas de nova geração. Nas novas redes ópticas são utilizados formatos de modulação avançados, com gestão da fase, pelo que foi estudado experimentalmente e por simulação o impacto da utilização destes formatos no desempenho do MZI-SOA na conversão de comprimento de onda e formato, em várias condições de operação. Foram derivadas regras de utilização para funcionamento óptimo. Foi também estudado o impacto da forma dos pulsos do sinal no desempenho do dispositivo. De seguida, o MZI-SOA foi utilizado para realizar funcionalidades temporais ao nível do bit e do pacote. Foi investigada a operação de um conversor de multiplexagem por divisão no comprimento de onda para multiplexagem por divisão temporal óptica, experimentalmente e por simulação, e de um compressor e descompressor de pacotes, por simulação. Para este último, foi investigada a operação com o MZI-SOA baseado em amplificadores ópticos de semicondutor com geometria de poço quântico e ponto quântico. Foi também realizado experimentalmente um ermutador de intervalos temporais que explora o MZI-SOA como conversor de comprimento de onda e usa um banco de linhas de atraso ópticas para introduzir no sinal um atraso seleccionável. Por fim, foi estudado analiticamente, experimentalmente e por simulação o impacto de diafonia em redes ópticas em diversas situações. Extendeu-se um modelo analítico de cálculo de desempenho para contemplar sinais distorcidos e afectados por diafonia. Estudou-se o caso de sinais muito filtrados e afectados por diafonia e mostrou-se que, para determinar correctamente as penalidades que ocorrem, ambos os efeitos devem ser considerados simultaneamente e não em separado. Foi estudada a escalabilidade limitada por diafonia de um comutador de intervalos temporais baseado em MZI-SOA a operar como comutador espacial. Mostrou-se também que sinais afectados fortemente por não-linearidades podem causar penalidades de diafonia mais elevadas do que sinais não afectados por não-linearidades. Neste trabalho foi demonstrado que o MZI-SOA permite construir vários e pertinentes circuitos ópticos, funcionando como bloco fundamental de construção, tendo sido o seu desempenho analisado, desde o nível de componente até ao nível de sistema. Tendo em conta as vantagens e desvantagens do MZI-SOA e os desenvolvimentos recentes de outras tecnologias, foram sugeridos tópicos de investigação com o intuito de evoluir para as redes ópticas de nova geração.
Resumo:
A presente tese situa-se no campo dos Estudos Culturais, constituindo uma construção interdisciplinar, situada nas vertentes da teoria cultural, com foco no estudo das identidade. Tem, como fenômeno empírico, o cenário de Barreirinhas-Ma/Brasil, em seus processos de transformação, decorrentes dos circuitos turísticos do Parque Nacional dos Lençóis Maranhenses/ Brasil. O objeto de estudo incide na análise de reconstrução de identidades de segmentos sociais que constituíram o público-alvo do processo investigativo: Artesãs, Prestadores de Serviços Turísticos (Condutores Turísticos, Toyoteiros, Pilotos de Lancha), Pescadores/as Artesanais e Marisqueiras. Desenvolve, como eixo teórico fundante, a questão das identidades, concebidas como processos descentrados, descontínuos constituídos nas hibridações, a partir de vertentes teóricas contemporâneas, com destaque para os pensamentos de Stuart Hall e Homi Bhabha. O trabalho consubstancia um processo de investigação, de natureza qualitativa, em Barreirinhas-Ma, através da observação participativa, entrevistas e grupos focais com os segmentos sociais do sistema da vida cotidiana, com atores institucionais e dirigentes de entidades associativas e de classe a constituir um amplo e significativo material que proporcionou adentrar nos processos de construções identitárias em curso em um cenário de intensas transformações que se revelam contraditórias e desafiantes.
Resumo:
O atual contexto social de aceleração exponencial, resultante de alterações políticas, económicas e do acesso imediato a um extenso conjunto de informações e a um manancial de desenvolvimentos científicos e tecnológicos, cujas implicações são imprevisíveis e transversais a diferentes setores, está em dissonância com as características do modelo escolar dominante e a naturalizada ‘gramática da escola’ (Formosinho & Machado, 2008; Nóvoa, 2009a; Tyack & Tobin, 1994). Este desfasamento, amplificado em países com sistemas de ensino de matriz centralizada, resvala entre uma ação docente acrítica e executora e, em oposição, uma ação docente de natureza profissional, caracterizada por um alinhamento entre o desenvolvimento profissional e a afirmação da especificidade do conhecimento profissional docente, enquanto saber que se constrói na interação com os outros, com o próprio, nos e sobre os contextos de prática. A implementação do processo de reorganização curricular do ensino básico (Decreto-Lei n.º 6/2001, de 18 de janeiro) redefiniu o currículo nacional segundo duas perspetivas: a nacional e a local, veiculando uma conceção curricular flexível e emancipatória, isto é, uma proposta curricular que confere aos professores autonomia no desenvolvimento e gestão do currículo, instigando-os à realização de práticas curriculares com intencionalidade pedagógica estratégica. Neste sentido, a pretensão desta investigação situou-se ao nível da problematização de saberes profissionais e da concetualização de algumas possibilidades de ação tangenciais à capacidade de autotransformação de cada profissional docente e da escola. As opções metodológicas consideradas visaram, sobretudo, compreender quais os possíveis conhecimentos profissionais mobilizados por professores de Ciências Físicas e Naturais, em particular ao nível do desenvolvimento e gestão do currículo desta área curricular. Assim, perspetivado sob a forma de questão enquadradora, o problema que esteve na génese desta investigação assume a seguinte formulação: Que conhecimento mobilizam professores do ensino básico no desenvolvimento e na gestão do currículo das Ciências Físicas e Naturais? De que forma e com que ações poderá ser potenciado esse conhecimento nos processos de ensino e aprendizagem? O estudo empírico que sustentou este projeto de investigação organizou-se em dois momentos distintos. O primeiro, de natureza predominantemente quantitativa e dimensão de análise extensiva, envolveu a administração de um inquérito por questionário a professores de Ciências Físicas e Naturais que, no ano letivo de 2006/2007, se encontravam a lecionar em escolas públicas com 2.º e 3.º ciclos afetas à Direção Regional de Educação do Norte e ao, anteriormente, designado Centro de Área Educativa de Aveiro. Com um enfoque preponderantemente qualitativo, o segundo momento do estudo decorreu ao longo do ano letivo de 2007/2008 num agrupamento de escolas da região norte do país e consistiu na realização de entrevistas a oito professores de Ciências Físicas e Naturais, à coordenadora do departamento de Matemática e Ciências Experimentais e aos presidentes do Conselho Pedagógico e do Conselho Executivo. Ao longo do ano letivo, os professores de Ciências Físicas e Naturais desenvolveram, igualmente, um percurso formativo cuja ênfase se situava ao nível da adequação do desenvolvimento e gestão do currículo desta área disciplinar. As técnicas de tratamento de dados privilegiadas foram a análise estatística e a análise de conteúdo. Os resultados deste estudo apontam para a prevalência de uma ação docente desprovida de intencionalidades pedagógica e curricular ou de integração na construção do corpo geral do saber, designadamente ao nível dos processos de desenvolvimento e gestão do currículo. Não obstante alguma familiarização com conceitos inerentes à dimensão do conhecimento do currículo, os indicadores de reapropriação ao nível da ação docente foram escassos, denunciando a presença de constrangimentos no domínio teórico das orientações curriculares nacionais e locais, bem como no desenvolvimento de práticas curriculares articuladas e estrategicamente definidas. Por outro lado, o predomínio de uma ação docente tendencialmente acrítica, de matriz executora, associada ao cumprimento de normativos legais e de rotinas e burocracias instituídas, indiciou fragilidades ao nível do conhecimento profissional configurado como mobilização complexa, organizada e coerente de conhecimentos científicos, curriculares, pedagógicos e metodológicos, em função da especificidade de cada situação educativa e cuja finalidade é a otimização da aprendizagem do aluno. O percurso formativo afigurou-se como um espaço de partilha e de reflexão colegial, propício ao desenvolvimento de ações que se inserem numa perspetiva de ‘action learning’, possibilitando a reflexão e a aprendizagem através de ações empreendidas em função de práticas educativas. As possibilidades de ação remetem para a integração da formação contínua em contexto, com intencionalidades pedagógicas e curriculares estrategicamente definidas, e a problematização da formação inicial e contínua dos professores, envolvendo as perspetivas de diferentes atores educativos e de investigadores educacionais.
Resumo:
A análise dos efeitos dos sismos mostra que a investigação em engenharia sísmica deve dar especial atenção à avaliação da vulnerabilidade das construções existentes, frequentemente desprovidas de adequada resistência sísmica tal como acontece em edifícios de betão armado (BA) de muitas cidades em países do sul da Europa, entre os quais Portugal. Sendo os pilares elementos estruturais fundamentais na resistência sísmica dos edifícios, deve ser dada especial atenção à sua resposta sob ações cíclicas. Acresce que o sismo é um tipo de ação cujos efeitos nos edifícios exige a consideração de duas componentes horizontais, o que tem exigências mais severas nos pilares comparativamente à ação unidirecional. Assim, esta tese centra-se na avaliação da resposta estrutural de pilares de betão armado sujeitos a ações cíclicas horizontais biaxiais, em três linhas principais. Em primeiro lugar desenvolveu-se uma campanha de ensaios para o estudo do comportamento cíclico uniaxial e biaxial de pilares de betão armado com esforço axial constante. Para tal foram construídas quatro séries de pilares retangulares de betão armado (24 no total) com diferentes características geométricas e quantidades de armadura longitudinal, tendo os pilares sido ensaiados para diferentes histórias de carga. Os resultados experimentais obtidos são analisados e discutidos dando particular atenção à evolução do dano, à degradação de rigidez e resistência com o aumento das exigências de deformação, à energia dissipada, ao amortecimento viscoso equivalente; por fim é proposto um índice de dano para pilares solicitados biaxialmente. De seguida foram aplicadas diferentes estratégias de modelação não-linear para a representação do comportamento biaxial dos pilares ensaiados, considerando não-linearidade distribuída ao longo dos elementos ou concentrada nas extremidades dos mesmos. Os resultados obtidos com as várias estratégias de modelação demonstraram representar adequadamente a resposta em termos das curvas envolventes força-deslocamento, mas foram encontradas algumas dificuldades na representação da degradação de resistência e na evolução da energia dissipada. Por fim, é proposto um modelo global para a representação do comportamento não-linear em flexão de elementos de betão armado sujeitos a ações biaxiais cíclicas. Este modelo tem por base um modelo uniaxial conhecido, combinado com uma função de interação desenvolvida com base no modelo de Bouc- Wen. Esta função de interação foi calibrada com recurso a técnicas de otimização e usando resultados de uma série de análises numéricas com um modelo refinado. É ainda demonstrada a capacidade do modelo simplificado em reproduzir os resultados experimentais de ensaios biaxiais de pilares.
Resumo:
A distribui ção de um sinal relógio, com elevada precisão espacial (baixo skew) e temporal (baixo jitter ), em sistemas sí ncronos de alta velocidade tem-se revelado uma tarefa cada vez mais demorada e complexa devido ao escalonamento da tecnologia. Com a diminuição das dimensões dos dispositivos e a integração crescente de mais funcionalidades nos Circuitos Integrados (CIs), a precisão associada as transições do sinal de relógio tem sido cada vez mais afectada por varia ções de processo, tensão e temperatura. Esta tese aborda o problema da incerteza de rel ogio em CIs de alta velocidade, com o objetivo de determinar os limites do paradigma de desenho sí ncrono. Na prossecu ção deste objectivo principal, esta tese propõe quatro novos modelos de incerteza com âmbitos de aplicação diferentes. O primeiro modelo permite estimar a incerteza introduzida por um inversor est atico CMOS, com base em parâmetros simples e su cientemente gen éricos para que possa ser usado na previsão das limitações temporais de circuitos mais complexos, mesmo na fase inicial do projeto. O segundo modelo, permite estimar a incerteza em repetidores com liga ções RC e assim otimizar o dimensionamento da rede de distribui ção de relógio, com baixo esfor ço computacional. O terceiro modelo permite estimar a acumula ção de incerteza em cascatas de repetidores. Uma vez que este modelo tem em considera ção a correla ção entre fontes de ruí do, e especialmente util para promover t ecnicas de distribui ção de rel ogio e de alimentação que possam minimizar a acumulação de incerteza. O quarto modelo permite estimar a incerteza temporal em sistemas com m ultiplos dom ínios de sincronismo. Este modelo pode ser facilmente incorporado numa ferramenta autom atica para determinar a melhor topologia para uma determinada aplicação ou para avaliar a tolerância do sistema ao ru ído de alimentação. Finalmente, usando os modelos propostos, são discutidas as tendências da precisão de rel ogio. Conclui-se que os limites da precisão do rel ogio são, em ultima an alise, impostos por fontes de varia ção dinâmica que se preveem crescentes na actual l ogica de escalonamento dos dispositivos. Assim sendo, esta tese defende a procura de solu ções em outros ní veis de abstração, que não apenas o ní vel f sico, que possam contribuir para o aumento de desempenho dos CIs e que tenham um menor impacto nos pressupostos do paradigma de desenho sí ncrono.