59 resultados para Ultrapuissance (limite)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos objetivos desta dissertação de mestrado foi avaliar o impacto ambiental do processo de tingimento usado na indústria de curtumes, em termos de volume de efluente produzido e sua carga poluente. Pretendeu-se também encontrar alternativas ao nível do processo de tingimento que levem a uma melhoria na qualidade do efluente produzido. Outro objetivo deste trabalho foi avaliar o funcionamento da ETAR existente na empresa JR Fontes, no que diz respeito aos parâmetros em estudo (carência química de oxigénio - CQO, pH, crómio e teor de sólidos suspensos totais - SST), propondo alterações que permitam respeitar os valores de emissão exigidos na licença de descarga da empresa. Verificou-se que o processo de tingimento aplicado pela empresa JR Fontes é muito poluente, em termos de carga orgânica e matéria em suspensão. Este facto é comprovado pelos resultados obtidos para os três processos estudados: Montana, Galáctico e Navak. Todos os processos apresentam um efluente com pH ácido (aproximado a 3) e valores de CQO superiores a 3550 mg O2/L, sendo o processo Navak aquele que apresenta o valor mais alto para o banho composto, 8362 mg O2/L. Relativamente ao teor de crómio, o banho de recurtume com concentração mais elevada de crómio total é o banho 1 do processo Navak, com 2297 mg/L, sendo que a concentração destes banhos é sempre elevada, igual ou superior a 746 mg/L. No que diz respeito à matéria em suspensão, o processo Navak é novamente o mais poluente, com um valor de 3842 mg SST/L, não sendo obtidos nos outros processos, valores inferiores a 1205 mg SST/L. Na realização de um processo alternativo de tingimento verificou-se que é possível diminuir a carga orgânica do efluente originado. A aplicação de recurtumes sintéticos deu origem a efluentes menos poluentes. O melhor valor obtido para a CQO foi de 1113 mg O2/L, sendo obtidos valores não superiores a 7185 mg O2/L para processos de características semelhantes aos aplicados nesta indústria. Relativamente à ETAR, apesar das restrições ao funcionamento que esta apresenta, no geral pode ser considerada eficiente, embora não consiga atingir o objetivo pretendido de remoção para a CQO, ou seja o valor de 1100 mg O2/L. Nos restantes parâmetros é cumprido o limite de emissão (350 mg SST/L, pH entre 6 e 9 e 2 mg Cr/L para o crómio total): os SST apresentam o valor de 98 mg SST/L, o crómio total de 1,2 mg Cr/L e o pH encontra-se entre 8 e 9. São aqui feitas duas abordagens para solucionar os problemas existentes na ETAR. A primeira considera um ajuste no tratamento e equipamentos existentes, através da reconstrução do tanque de equalização, da substituição do coagulante por sulfato ferroso e da reconstrução do sedimentador, assim como a substituição das tubagens por umas de maior diâmetro, solucionando assim problemas de manutenção de toda a instalação e do incumprimento da legislação. A outra abordagem implica a substituição do sistema de afinação existente, os filtros de areia e carvão ativados, por um sistema de membranas de ultrafiltração ou por dois filtros de carvão ativado. Para tratar um efluente com um valor de CQO de 3000 mg O2/L com o carvão estudado, seriam necessários 132 kg de carvão por coluna, aproveitando-se os equipamentos existentes. No caso das membranas filtrantes, estas são eficazes, reduzindo a CQO em cerca de 70%. Ao contrário do carvão, a aplicação deste sistema implicaria a aquisição de novos equipamentos. Futuramente propõe-se a avaliação dos vários tipos de reagentes usados no tingimento de couro de forma a aplicar no tratamento aqueles que produzam as características desejadas no produto final e a que apresentem um menor resultado de CQO. Propõe-se também o estudo de viabilidade da remoção de crómio dos banhos de recurtume e consequente avaliação da aplicabilidade de um tratamento biológico em substituição ou como complemento do tratamento existente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este projecto visa um estudo de uma solução para uma ponte pedonal de Madeira Lamelada Colada (MLC) entre o Hospital Pedro Hispano e o Norte-Shopping, localizada na Senhor da Hora. Inicialmente foram analisadas diversas variantes, com vários tipos de sistemas, sendo adoptada uma ponte formada por dois arcos, que se aproximam à medida que se afastam dos encontros unidos por contraventamentos em cruz. O tabuleiro encontra-se suspenso por tirantes e apoiados dos dois lados nos encontros. Foi realizado uma pequena introdução histórica da utilização da madeira enquanto material de construção, a sua fabricação e os vários tipos de pontes pedonais em MLC. O uso da madeira em estruturas fez com que a abordagem do Eurocódigo 5 (EC5) tivesse uma maior importância. A estrutura é modelada no programa de cálculo “DLUBAL ” através de um modelo de barras tridimensional de modo a efectuar uma análise estática e dinâmica global, recorrendo-se para tal a normas e princípios gerais de verificação de segurança dos regulamentos Europeus, nomeadamente os Eurocódigos das várias especialidades. Apresentam-se em anexo vários desenhos da ponte, desenhos das peças de ligação, o mapa de trabalhos e quantidades, ideias preliminares, dimensionamento e a escolha dos ligadores e por fim os diagramas de esforços dos elementos aos Estados-limite Último.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os adesivos têm sido alvo de estudo ao longo dos últimos anos para ligação de componentes a nível industrial. Devido à crescente utilização das juntas adesivas, torna-se necessária a existência de modelos de previsão de resistência que sejam fiáveis e robustos. Neste âmbito, a determinação das propriedades dos adesivos é fundamental para o projeto de ligações coladas. Uma abordagem recente consiste no uso de modelos de dano coesivo (MDC), que permitem simular o comportamento à fratura das juntas de forma bastante fiável. Esta técnica requer a definição das leis coesivas em tração e corte. Estas leis coesivas dependem essencialmente de 2 parâmetros: a tensão limite e a tenacidade no modo de solicitação respetivo. O ensaio End-Notched Flexure (ENF) é o mais utilizado para determinar a tenacidade em corte, porque é conhecido por ser o mais expedito e fiável para caraterizar este parâmetro. Neste ensaio, os provetes são sujeitos a flexão em 3 pontos, sendo apoiados nas extremidades e solicitados no ponto médio para promover a flexão entre substratos, o que se reflete numa solicitação de corte no adesivo. A partir deste ensaio, e após de definida a tenacidade em corte (GIIc), existem alguns métodos para estimativa da lei coesiva respetiva. Nesta dissertação são definidas as leis coesivas em corte de três adesivos estruturais através do ensaio ENF e um método inverso de ajuste dos dados experimentais. Para o efeito, foram realizados ensaios experimentais considerado um adesivo frágil, o Araldite® AV138, um adesivo moderadamente dúctil, o Araldite® 2015 e outro dúctil, o SikaForce® 7752. O trabalho experimental consistiu na realização dos ensaios ENF e respetivo tratamento dos dados para obtenção das curvas de resistência (curvas-R) através dos seguintes métodos: Compliance Calibration Method (CCM), Direct Beam Theory (DBT), Corrected Beam Theory (CBT) e Compliance-Based Beam Method (CBBM). Os ensaios foram simulados numericamente pelo código comercial ABAQUS®, recorrendo ao Métodos de Elementos Finitos (MEF) e um MDC triangular, com o intuito de estimar a lei coesiva de cada um dos adesivos em solicitação de corte. Após este estudo, foi feita uma análise de sensibilidade ao valor de GIIc e resistência coesiva ao corte (tS 0), para uma melhor compreensão do efeito destes parâmetros na curva P- do ensaio ENF. Com o objetivo de testar adequação dos 4 métodos de obtenção de GIIc usados neste trabalho, estes foram aplicados a curvas P- numéricas de cada um dos 3 adesivos, e os valores de GIIc previstos por estes métodos comparados com os respetivos valores introduzidos nos modelos numéricos. Como resultado do trabalho realizado, conseguiu-se obter uma lei coesiva única em corte para cada um dos 3 adesivos testados, que é capaz de reproduzir com precisão os resultados experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda uma série de conceitos base no que concerne à ação do vento sobre edifícios altos, começando por ser estabelecidas algumas considerações fundamentais acerca da circulação do vento na camada limite atmosférica bem como acerca da sua interação com as estruturas. É feita uma análise da metodologia proposta pelo Eurocódigo 1 para quantificação de tal ação sobre os edifícios, bem como é elaborada uma comparação da metodologia proposta por este com a metodologia ainda vigente na regulamentação portuguesa. Foram modelados computacionalmente, com recurso a um programa de cálculo estrutural automático, três edifícios altos com diferente secção geométrica em planta que servirão de caso de estudo. Para estes mesmos edifícios são aplicados os dois regulamentos considerados com vista à determinação de esforços e deslocamentos. Sendo os edifícios altos um género de estruturas capazes de ser excitadas dinamicamente perante a ação do vento, adota-se uma metodologia para quantificação desta ação de forma dinâmica na direção do escoamento. Assim, é obtida a resposta dinâmica ao longo do tempo em termos de deslocamentos e acelerações para o caso de estudo considerado e é feita uma comparação da resposta do edifício quadrangular sob a ação dinâmica do vento com a resposta estática regulamentar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os matemáticos do séc. XIX só ficaram plenamente tranquilizados quando o conceito de limite se viu completamente “livre” de qualquer conotação "metafísica", ou seja, quando se soube, graças à astúcia genial dos “épsilon – delta” de Weierstrass, exprimir no estilo Arquimedes a ideia intuitiva de "verdadeiro valor" de uma quantidade indeterminada sem invocar os acréscimos "infinitamente pequenos” que, no entanto, tinham tido êxito no século XVIII. Mas o preço a pagar para apenas manipular conceitos bem definidos a partir das noções algébricas sobre os números, foi a “inversão” dos raciocínios na Análise, ou seja, o facto de que é necessário raciocinar ao contrário relativamente ao caminho heurístico e adivinhar a escolha estratégica “vencedora” em cada junção ou desdobramento lógico. Perante esta dificuldade o ensino da noção de limite viu-se “arrumado” para o 12º ano (para não dizer, aí minimizado) e os conceitos que dela dependem, como o de derivada, viram-se, nos anos anteriores, esvaziados de significado formal, sendo apresentados através de noções (próximas, mas não formais) das não convencionais reduzindo-se à expressão característica de “tende para”. Esta “tendência” não possui na Análise Clássica qualquer significado formal, e apesar de se poder considerar próxima da definição Não Convencional de limite, não lhe sendo feita qualquer referência, fica assim, impossibilitada qualquer formalização da “intuição” em questão, no entanto, pretendemos alertar, através de um exemplo, para uma “pseudo” utilização das suas noções e conceitos. Constatamos, mais uma vez, que a Análise Não Convencional parece ser um caminho possível para uma abordagem da Análise num nível não universitário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um estudo sobre os problemas de sequenciamento de tarefas de produção do tipo job shop scheduling. Os problemas de sequenciamento de tarefas de produção pretendem encontrar a melhor sequência para o processamento de uma lista de tarefas, o instante de início e término de cada tarefa e a afetação de máquinas para as tarefas. Entre estes, encontram-se os problemas com máquinas paralelas, os problemas job shop e flow shop. As medidas de desempenho mais comuns são o makespan (instante de término da execução de todas as tarefas), o tempo de fluxo total, a soma dos atrasos (tardiness), o atraso máximo, o número de tarefas que são completadas após a data limite, entre outros. Num problema do tipo job shop, as tarefas (jobs) consistem num conjunto de operações que têm de ser executadas numa máquina pré-determinada, obedecendo a um determinado sequenciamento com tempos pré-definidos. Estes ambientes permitem diferentes cenários de sequenciamento das tarefas. Normalmente, não são permitidas interrupções no processamento das tarefas (preemption) e pode ainda ser necessário considerar tempos de preparação dependentes da sequência (sequence dependent setup times) ou atribuir pesos (prioridades) diferentes em função da importância da tarefa ou do cliente. Pretende-se o estudo dos modelos matemáticos existentes para várias variantes dos problemas de sequenciamento de tarefas do tipo job shop e a comparação dos resultados das diversas medidas de desempenho da produção. Este trabalho contribui para demonstrar a importância que um bom sequenciamento da produção pode ter na sua eficiência e consequente impacto financeiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a alteração da legislação energética em Portugal, nomeadamente a implementação da legislação de Micro e Minigeração, a produção distribuída cresceu de forma exponencial na rede elétrica nacional, diminuindo por um lado as perdas no transporte e distribuição, e por outro aumentando a complexidade na gestão do trânsito de potência ao Distribuidor. No entanto a motivação desta dissertação prende-se com o facto de que as centrais de produção distribuída, em particular as de tecnologia fotovoltaica, pela sua dimensão, serem instaladas nos pontos de consumo, em paralelo com a instalação elétrica de utilização do cliente e como tal, têm sido verificadas diversas anomalias no funcionamento e exploração das mesmas, por influência da má qualidade de energia resultante das más condições de funcionamento e exploração em que se encontram as instalações de consumo. A presente dissertação pretende apresentar uma descrição das anomalias mais frequentes verificadas nas centrais fotovoltaicas de minigeração com origem na qualidade da energia que transita das instalações elétricas de consumo ligadas ao mesmo ponto de interligação com a rede elétrica nacional. Como base de fundamento, foram demonstradas através de três casos práticos reais, algumas das mais frequentes e prejudiciais anomalias descritas na presente dissertação. Foram escolhidos 3 casos reais com diferentes tipos de instalação de consumo sendo que um deles não apresenta qualquer anomalia de forma a comprovar o bom funcionamento em condições normais de ambas as instalações. Foram encontradas e demonstradas várias soluções paras os diferentes tipos de anomalias, no entanto esta dissertação vai permitir não só a resolução deste tipo de anomalias em centrais fotovoltaicas em exploração e já com prejuízos avultados mas também introduzir em futuras instalações a análise da qualidade da energia nas instalações de consumo em fase preliminar de estudo de implementação de centrais fotovoltaicas de minigeração e de autoconsumo, precavendo futuros problemas de rentabilidade técnico-económica. Este estudo, irá certamente servir de motor de impulsão para a preocupação com a Qualidade da Energia essencialmente dentro das instalações elétricas de consumo sensibilizando os seus gestores energéticos. Poderá ainda impulsionar a reformulação do Regulamento de Qualidade de Serviço para exigências ainda mais apertadas de forma a incorporar algumas das anomalias aqui descritas, sendo por isso um elemento de alerta para todos os “Players” do Sistema Elétrico Nacional tendo como limite a melhoria continua da Segurança e da Qualidade da energia na rede elétrica beneficiando da sensibilização de todos os intervenientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo a realização de um plano de gestão de solventes e sua análise para propor melhorias no cumprimento dos valores legalmente impostos. Foram realizados dois planos distintos, um referente à indústria de revestimento e outro à indústria de formulação de tintas. As abordagens na realização e análise de resolução de problemas são distintas, uma vez que os limites legais são diferentes em ambos os casos. Os componentes que apresentam uma maior expressão face ao plano de gestão de solventes são os compostos orgânicos voláteis (COVs), e é a partir destes componentes que se efetuou toda a análise. Inicialmente foi necessário conhecer todo o funcionamento de cada empresa, os procedimentos adotados, a utilização dos produtos e as técnicas operacionais. Determinaram-se os pontos críticos na avaliação dos problemas que se verificaram nos planos de gestão de solventes e analisaram-se as possibilidades técnicas e tecnológicas passiveis de utilização para a resolução ou minimização desses problemas principalmente na empresa A que excede o limite legalmente imposto. As possibilidades centram-se a nível tecnológico de equipamentos e em produtos utilizados em ambos os casos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação apresenta uma abordagem ao tema Fluência, com um desenvolvimento geral para quatro materiais: madeira, alumínio, betão e aço. No entanto, particularizou-se este estudo apenas para dois destes materiais, a madeira e o alumínio. A madeira é um material viscoelástico, logo fortemente influenciado quando submetido a uma ação constante (Fluência) sendo agravada com alterações do teor em água. Iniciou-se o estudo, com uma introdução aos objetivos principais e a revisão teórica do conhecimento da propriedade mecânica (Fluência). Efetuou-se o estudo inicial para os quatro materiais indicados. Posteriormente, fez-se avaliação do efeito mecânico sortivo durante 60 dias com sete ciclos, em provetes de dimensões 20 x 20 x 400 mm3 (escala 1:10) de madeira de Eucalyptus globulus Labill. Recorrendo ao levantamento de um conjunto de modelos numéricos, procedeu-se ao ajuste e extrapolação do comportamento, em Fluência, para distintos períodos de tempo (1, 10 e 50 anos). Os resultados obtidos demonstraram que a madeira de Eucalipto não apresenta um limite no seu comportamento em Fluência, logo instável para os 60 dias de duração de ensaio. Os diferentes modelos de Fluência (x6) apresentaram uma variabilidade crescente de resultados, de acordo com o aumento de extrapolação dos resultados. Para a espécie de madeira de Eucalipto constatou-se ainda, que o ajuste e extrapolação de deformação para 50 anos ultrapassaram os valores sugeridos pelo Eurocódigo 5. A última parte deste trabalho, incidiu sobre o desenvolvimento da metodologia do ensaio em flexão de 3 provetes de alumínio similares, cujas dimensões eram de 20 x 20 x 400mm3. O objetivo desta metodologia foi avaliar o seu comportamento em Fluência. Numa primeira fase, foi aplicada uma carga contante de 160 kN. E numa segunda fase, foi aplicada o dobro dessa carga sujeita adicionalmente a uma temperatura bastante superior à temperatura ambiente (a rondar os 50 oC). Conclusivamente verificou-se que o alumínio não apresenta deformação por Fluência, para as condições de ensaio apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As operações de maquinagem de componentes tendo em vista os mais diversos sectores de actividade têm registado um crescimento sustentável em Portugal, devido a inúmeros factores como a modernização do nosso parque de equipamentos, a competitividade da nossa mão-de-obra e a qualidade patenteada pelos serviços prestados pelas nossas empresas, cada vez mais conscientes da importância que os clientes internacionais assumem na sua actividade, da necessidade de cumprimento dos compromissos estabelecidos em termos de prazo de entrega e da procura incessante de novos mercados e sectores de actividade que potenciem um valor-acrescentado mais atractivo do produto. As solicitações do mercado no sector de actividade de prestação de serviços de maquinagem são imensas, e sempre extremamente condicionadas em termos de tempo de resposta. Por outro lado, os prestadores deste tipo de serviço ficam limitados por duas situações-limite: uma orçamentação por defeito poderá conduzir a prejuízos indesejáveis, ou mesmo incomportáveis, enquanto um preço excessivamente elevado poderá afastar o possível cliente e impedir a conquista de um novo projecto. Orçamentar depressa e bem é uma operação complexa, que requer uma análise muito cuidada dos desenhos fornecidos pelo possível cliente, delinear a sequência operatória, salvaguardar as tolerâncias e tipos de acabamento pretendidos, minimizar as operações de fixação e seleccionar as melhores ferramentas para efectuar o trabalho pretendido. Este trabalho, desenvolvido para a TECNOLANEMA, empresa do Grupo LANEMA, que é especialista na produção de peças em plástico técnico e em ligas de alumínio para os mais diversos sectores de actividade, tanto em Portugal como no Estrangeiro. O trabalho desenvolvido visou criar uma aplicação informática que permitisse elaborar orçamentos de forma rápida e precisa, através de determinados factores-chave previamente estudados. O projecto foi concluído e testado com sucesso na empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Web aproximou a humanidade dos seus pares a um nível nunca antes visto. Com esta facilidade veio também o cibercrime, o terrorismo e outros fenómenos característicos de uma sociedade tecnológica, plenamente informatizada e onde as fronteiras terrestres pouco importam na limitação dos agentes ativos, nocivos ou não, deste sistema. Recentemente descobriu-se que as grandes nações “vigiam” atentamente os seus cidadãos, desrespeitando qualquer limite moral e tecnológico, podendo escutar conversas telefónicas, monitorizar o envio e receção de e-mails, monitorizar o tráfego Web do cidadão através de poderosíssimos programas de monitorização e vigilância. Noutros cantos do globo, nações em tumulto ou envoltas num manto da censura perseguem os cidadãos negando-lhes o acesso à Web. Mais mundanamente, há pessoas que coagem e invadem a privacidade de conhecidos e familiares, vasculhando todos os cantos dos seus computadores e hábitos de navegação. Neste sentido, após o estudo das tecnologias que permitem a vigilância constante dos utilizadores da Web, foram analisadas soluções que permitem conceder algum anónimato e segurança no tráfego Web. Para suportar o presente estudo, foi efetuada uma análise das plataformas que permitem uma navegação anónima e segura e um estudo das tecnologias e programas com potencial de violação de privacidade e intrusão informática usados por nações de grande notoriedade. Este trabalho teve como objetivo principal analisar as tecnologias de monitorização e de vigilância informática identificando as tecnologias disponíveis, procurando encontrar potenciais soluções no sentido de investigar a possibilidade de desenvolver e disponibilizar uma ferramenta multimédia alicerçada em Linux e em LiveDVD (Sistema Operativo Linux que corre a partir do DVD sem necessidade de instalação). Foram integrados recursos no protótipo com o intuito de proporcionar ao utilizador uma forma ágil e leiga para navegar na Web de forma segura e anónima, a partir de um sistema operativo (SO) virtualizado e previamente ajustado para o âmbito anteriormente descrito. O protótipo foi testado e avaliado por um conjunto de cidadãos no sentido de aferir o seu potencial. Termina-se o documento com as conclusões e o trabalho a desenvolver futuramente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A legendagem, sendo um modo de tradução audiovisual muito peculiar, implica verter um discurso oral, real ou ficcionado, para texto escrito. A primeira questão que nos colocamos é, como será isto exequível, sem se perder uma parte significativa do discurso oral: os elementos paralinguísticos? Depois, o que acontece nesta passagem da oralidade para a escrita? Haverá forma de contornar as perdas evidentes? Como ponto de partida para este projecto de legendagem, escolhemos dois filmes ainda não legendados em português, cujos argumentos, coincidentemente, também ainda não se encontravam traduzidos em português. Os filmes escolhidos foram Pull My Daisy e The Last Clean Shirt, documentos visuais da cultura da Beat Generation, movimento sediado nos Estados Unidos da América. A partir da tradução, adaptação e legendagem destas obras, procurámos, então, analisar as dificuldades levantadas pela tradução e introdução das marcas de oralidade existentes nos textos de partida, bem como as suas possibilidades de adaptação, tendo em conta as características do público-alvo e os constrangimentos impostos pela própria natureza deste modo de tradução. Procurou tomar-se em consideração também os problemas relacionados com a transferência da cultura da língua de partida para a língua de chegada. A legendagem destas duas curtas-metragens foi realizada através do programa de software SPOT. Depois de concluído, foi analisado todo o processo de tradução, adaptação e legendagem, considerando a necessidade de contextualizar os filmes a nível literário, artístico e cultural, bem como as decisões relativamente a alguns aspectos do resultado final da legendagem, nomeadamente no que respeita às dificuldades impostas pela transposição da oralidade para a escrita. O argumento de Pull My Daisy, nas palavras do autor Jack Kerouac, baseia-se no Acto III da peça “The Beat Generation”. Esta peça foi escrita em 1957, mas foi recentemente redescoberta em 2005, em forma manuscrita, num armazém de New Jersey. Na sua essência, este argumento consiste num improviso de Kerouac elaborado em voz off durante o filme realizado por Robert Frank e Alfred Leslie, em 1959. Desde então, ambos os realizadores desenvolveram as suas criações artísticas, tendo, por exemplo, Alfred Leslie estreado o seu trabalho mais recente, o vídeo The Cedar Bar no London Film Festival em 2002 e Robert Frank realizado vídeos para canções dos New Order, Run de 1989, e de Patti Smith, em 1996, para Summer Cannibals. A curta-metragem começa com um canção cuja letra é um excerto do poema Pull My Daisy de Allen Ginsberg e Jack Kerouac. Depois, Jack Kerouac representa e encarna com a sua própria voz cada uma das personagens do filme, enquadrando, descrevendo e comentando a acção. O argumento do filme é, assim, um exercício livre de improviso sobre as imagens montadas pelos realizadores. The Last Clean Shirt é um filme experimental de Alfred Leslie, realizado em 1964, cujas legendas originais incluídas no filme são textos do poeta americano Frank O’Hara. Este filme tem sempre o mesmo enquadramento de câmara, ao passo que a “acção” nos é sugerida pelo conteúdo das legendas que integram a obra. Isto é, se por um lado o cenário e os protagonistas do filme são os mesmos do início ao fim do filme, é o texto de O’Hara, associado ao momento da inserção dos segmentos no filme, que atrai ou distrai a atenção do espectador para uma viagem que pode ter vários destinos. Estas duas curtas-metragens constituem textos-limite que põem em evidência os desafios do processo de legendagem, graças às suas características muito especiais, enquanto obras de arte cinematográfica. Para além das dificuldades emergentes que todos os trabalhos de tradução envolvem, neste trabalho considerou-se essencial tentar tratar da melhor forma a estrutura poética livre e conferir significado suficiente e coeso no texto de chegada ao fluxo de pensamento exteriorizado no texto de partida, procurando, especialmente, não prejudicar a característica poética dos textos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tipicamente as redes elétricas de distribuição apresentam uma topologia parcialmente malhada e são exploradas radialmente. A topologia radial é obtida através da abertura das malhas nos locais que otimizam o ponto de operação da rede, através da instalação de aparelhos de corte que operam normalmente abertos. Para além de manterem a topologia radial, estes equipamentos possibilitam também a transferência de cargas entre saídas, aquando da ocorrência de defeitos. As saídas radiais são ainda dotadas de aparelhos de corte que operam normalmente fechados, estes têm como objetivo maximizar a fiabilidade e isolar defeitos, minimizando a área afetada pelos mesmos. Assim, na presente dissertação são desenvolvidos dois algoritmos determinísticos para a localização ótima de aparelhos de corte normalmente abertos e fechados, minimizando a potência ativa de perdas e o custo da energia não distribuída. O algoritmo de localização de aparelhos de corte normalmente abertos visa encontrar a topologia radial ótima que minimiza a potência ativa de perdas. O método é desenvolvido em ambiente Matlab – Tomlab, e é formulado como um problema de programação quadrática inteira mista. A topologia radial ótima é garantida através do cálculo de um trânsito de potências ótimo baseado no modelo DC. A função objetivo é dada pelas perdas por efeito de Joule. Por outro lado o problema é restringido pela primeira lei de Kirchhoff, limites de geração das subestações, limites térmicos dos condutores, trânsito de potência unidirecional e pela condição de radialidade. Os aparelhos de corte normalmente fechados são localizados ao longo das saídas radiais obtidas pelo anterior algoritmo, e permite minimizar o custo da energia não distribuída. No limite é possível localizar um aparelho de corte normalmente fechado em todas as linhas de uma rede de distribuição, sendo esta a solução que minimiza a energia não distribuída. No entanto, tendo em conta que a cada aparelho de corte está associado um investimento, é fundamental encontrar um equilíbrio entre a melhoria de fiabilidade e o investimento. Desta forma, o algoritmo desenvolvido avalia os benefícios obtidos com a instalação de aparelhos de corte normalmente fechados, e retorna o número e a localização dos mesmo que minimiza o custo da energia não distribuída. Os métodos apresentados são testados em duas redes de distribuição reais, exploradas com um nível de tensão de 15 kV e 30 kV, respetivamente. A primeira rede é localizada no distrito do Porto e é caraterizada por uma topologia mista e urbana. A segunda rede é localizada no distrito de Bragança e é caracterizada por uma topologia maioritariamente aérea e rural.