51 resultados para Algoritmos de minimização
Resumo:
O desenvolvimento de equipamentos de descodificação massiva de genomas veio aumentar de uma forma brutal os dados disponíveis. No entanto, para desvendarmos informação relevante a partir da análise desses dados é necessário software cada vez mais específico, orientado para determinadas tarefas que auxiliem o investigador a obter conclusões o mais rápido possível. É nesse campo que a bioinformática surge, como aliado fundamental da biologia, uma vez que tira partido de métodos e infra-estruturas computacionais para desenvolver algoritmos e aplicações informáticas. Por outro lado, na maior parte das vezes, face a novas questões biológicas é necessário responder com novas soluções específicas, pelo que o desenvolvimento de aplicações se torna um desafio permanente para os engenheiros de software. Foi nesse contexto que surgiram os principais objectivos deste trabalho, centrados na análise de tripletos e de repetições em estruturas primárias de DNA. Para esse efeito, foram propostos novos métodos e novos algoritmos que permitirem o processamento e a obtenção de resultados sobre grandes volumes de dados. Ao nível da análise de tripletos de codões e de aminoácidos foi proposto um sistema concebido para duas vertentes: por um lado o processamento dos dados, por outro a disponibilização na Web dos dados processados, através de um mecanismo visual de composição de consultas. Relativamente à análise de repetições, foi proposto e desenvolvido um sistema para identificar padrões de nucleótidos e aminoácidos repetidos em sequências específicas, com particular aplicação em genes ortólogos. As soluções propostas foram posteriormente validadas através de casos de estudo que atestam a mais-valia do trabalho desenvolvido.
Resumo:
Motivados pelo propósito central de contribuir para a construção, a longo prazo, de um sistema completo de conversão de texto para fala, baseado em síntese articulatória, desenvolvemos um modelo linguístico para o português europeu (PE), com base no sistema TADA (TAsk Dynamic Application), que visou a obtenção automática da trajectória dos articuladores a partir do texto de entrada. A concretização deste objectivo ditou o desenvolvimento de um conjunto de tarefas, nomeadamente 1) a implementação e avaliação de dois sistemas de silabificação automática e de transcrição fonética, tendo em vista a transformação do texto de entrada num formato adequado ao TADA; 2) a criação de um dicionário gestual para os sons do PE, de modo a que cada fone obtido à saída do conversor grafema-fone pudesse ter correspondência com um conjunto de gestos articulatórios adaptados para o PE; 3) a análise do fenómeno da nasalidade à luz dos princípios dinâmicos da Fonologia Articulatória (FA), com base num estudo articulatório e perceptivo. Os dois algoritmos de silabificação automática implementados e testados fizeram apelo a conhecimentos de natureza fonológica sobre a estrutura da sílaba, sendo o primeiro baseado em transdutores de estados finitos e o segundo uma implementação fiel das propostas de Mateus & d'Andrade (2000). O desempenho destes algoritmos – sobretudo do segundo – mostrou-se similar ao de outros sistemas com as mesmas potencialidades. Quanto à conversão grafema-fone, seguimos uma metodologia baseada em regras de reescrita combinada com uma técnica de aprendizagem automática. Os resultados da avaliação deste sistema motivaram a exploração posterior de outros métodos automáticos, procurando também avaliar o impacto da integração de informação silábica nos sistemas. A descrição dinâmica dos sons do PE, ancorada nos princípios teóricos e metodológicos da FA, baseou-se essencialmente na análise de dados de ressonância magnética, a partir dos quais foram realizadas todas as medições, com vista à obtenção de parâmetros articulatórios quantitativos. Foi tentada uma primeira validação das várias configurações gestuais propostas, através de um pequeno teste perceptual, que permitiu identificar os principais problemas subjacentes à proposta gestual. Este trabalho propiciou, pela primeira vez para o PE, o desenvolvimento de um primeiro sistema de conversão de texto para fala, de base articulatória. A descrição dinâmica das vogais nasais contou, quer com os dados de ressonância magnética, para caracterização dos gestos orais, quer com os dados obtidos através de articulografia electromagnética (EMA), para estudo da dinâmica do velo e da sua relação com os restantes articuladores. Para além disso, foi efectuado um teste perceptivo, usando o TADA e o SAPWindows, para avaliar a sensibilidade dos ouvintes portugueses às variações na altura do velo e alterações na coordenação intergestual. Este estudo serviu de base a uma interpretação abstracta (em termos gestuais) das vogais nasais do PE e permitiu também esclarecer aspectos cruciais relacionados com a sua produção e percepção.
Resumo:
O presente trabalho propõe-se a divulgar as mais significativas técnicas de esquemas cooperativos, de forma a ultrapassar alguns dos problemas dos sistemas móveis sem fios da próxima geração, estendendo a área de cobertura destes sistemas, assim como a sua capacidade e fiabilidade. O estudo de diversos esquemas cooperativos é efetuado em termos de capacidade e de taxa de erros, fazendo variar o número de relays e de antenas em cada elemento do sistema. Diversos algoritmos com aplicação em sistemas cooperativos são desenvolvidos e propostos ao longo desta tese, como códigos espaço-frequência aplicados de forma distribuída nos relays, para sistemas baseados na tecnologia OFDM e sob diversos cenários próximos da realidade. Os sistemas cooperativos são particularmente úteis em situações em que o caminho direto entre dois terminais não está acessível ou tem uma fraca qualidade de transmissão. Tendo este aspeto em consideração, e pretendendo ter a máxima eficiência espetral e máxima diversidade, um algoritmo com precodificação é também proposto para múltiplos relays, cada um equipado com uma ou duas antenas. A formulação matemática associada aos algoritmos propostos é apresentada, assim como a derivação da probabilidade de erro teórica. O desempenho dos sistemas assistidos por relays usando os algoritmos propostos é comparado em relação a outros esquemas cooperativos equivalentes e a esquemas não-cooperativos, considerando cenários com diferentes qualidades de canal, daí advindo importantes conclusões em relação a estes sistemas.
Resumo:
O presente trabalho propõe-se integrar a percepção que os indivíduos fazem das medidas de minimização de ruído, utilizadas em Portugal, na avaliação do ambiente sonoro em zonas urbanas. O trabalho é composto por um estudo sobre a avaliação da estrutura cognitiva (atitude) dos indivíduos, nomeadamente o significado que eles atribuem ao ruído de tráfego urbano, pela avaliação acústica e psicoacustica de várias medidas de minimização de ruído utilizadas em Portugal, e por um inquérito sócio acústico que pretende relacionar ambos os aspectos referidos. Pela análise dos estudos desenvolvidos, é elaborada uma metodologia para a integração de aspectos qualitativos (percepção humana), na avaliação do ambiente sonoro.
Resumo:
Neste trabalho estabelece-se uma interpreta c~ao geom etrica, em termos da teoria dos grafos, para v ertices, arestas e faces de uma qualquer dimens~ao do politopo de Birkho ac clico, Tn = n(T), onde T e uma arvore com n v ertices. Generaliza-se o resultado obtido por G. Dahl, [18], para o c alculo do di^ametro do grafo G( t n), onde t n e o politopo das matrizes tridiagonais duplamente estoc asticas. Adicionalmente, para q = 0; 1; 2; 3 s~ao obtidas f ormulas expl citas para a contagem do n umero de q faces do politopo de Birkho tridiagonal, t n, e e feito o estudo da natureza geom etrica dessas mesmas faces. S~ao, tamb em, apresentados algoritmos para efectuar contagens do n umero de faces de dimens~ao inferior a de uma dada face do politopo de Birkho ac clico.
Resumo:
As zonas costeiras, pelas suas características naturais, disponibilizam à sociedade múltiplas oportunidades e serviços, o que favorece uma ocupação desmedida deste território e a ocorrência de transformações relevantes provocadas pela intervenção humana. A simultaneidade da influência das atividades e intervenções humanas e da ocorrência das funções naturais deste território, revestidas de um forte caráter dinâmico, encontra-se na base do desenvolvimento quer de conflitos do tipo socioambiental, quer de situações de risco costeiro. A contribuir para esta situação, surge também a problemática das alterações climáticas, com impactos em domínios diversos, como por exemplo biodiversidade, pesca ou turismo, com um registo de aumento e intensidade de acidentes naturais associados a fenómenos meteorológicos. Apesar da existência de um conjunto de instrumentos de preservação dos recursos naturais e de ordenamento e gestão territorial, a degradação do sistema natural costeiro é muito visível, com impactos negativos de complexa recuperação. Refira-se, também, o caráter de exceção dos planos de ordenamento da orla costeira, em particular em frentes urbanas consolidadas ou em consolidação, permitindo o contínuo aumento da urbanização na orla costeira. A atuação das entidades responsáveis pela gestão do território costeiro tem sido desenvolvida com um baixo nível de envolvimento da população e maioritariamente no sentido de dar resposta às situações de perigo que vão surgindo, com a implementação de estruturas de defesa costeira, suportadas pelo erário público, cujos impactos se traduzem num agravamento do estado da zona costeira portuguesa, em geral. A região de Aveiro é um exemplo da problemática exposta, onde se registam frequentemente episódios de perigo costeiro, considerando-se urgente a tomada de medidas que contribuam para a sustentabilidade deste território, associada a uma visão de longo prazo, e que deverão passar pela integração do risco na gestão territorial costeira. Esta investigação, com a qual se pretende aumentar o conhecimento científico, desenvolver uma abordagem integrada de diversos domínios disciplinares, demonstrar a relevância da valorização do conhecimento comum e da perceção social na gestão do território, bem como desenvolver uma ferramenta de suporte à gestão territorial da zona costeira, tem como propósito contribuir para a preservação do sistema natural costeiro e para o aumento dos níveis de segurança humana face ao risco costeiro. Nesse sentido, desenvolveu-se um estudo de perceção social em aglomerados urbanos costeiros da região de Aveiro, para avaliação da perceção do risco costeiro e da gestão do território e recolha de conhecimento comum sobre a dinâmica costeira. Concebeu-se, também, um sistema de informação geográfica que permite às entidades de gestão do território costeiro uma atuação facilitada, articulada e de caráter preventivo, suportada na integração de conhecimentos científico, técnico e comum, de perceções e aspirações, de limites, propostas e condicionantes de planos de ordenamento e gestão do território existentes, entre outra informação, e com potencialidade para evoluir simultaneamente para um sistema de aviso de acidentes. Como resultados do estudo empírico destacam-se a forte ligação da população ao mar, de caráter afetivo ou pela pretensão de utilização da praia, a desvalorização do risco costeiro, apesar do reconhecimento do recuo da linha de costa, a valorização das estruturas de defesa costeira, a escassa disponibilização de informação à população acerca do risco costeiro a que está exposta, e a importância atribuída à participação da população no processo de gestão territorial costeira. O sistema de informação geográfica foi validado para o caso da Praia de Esmoriz, permitindo identificar, por exemplo, para cada proprietário de habitação localizada em área de risco, a disponibilidade para participar no processo de gestão territorial costeira ou a abertura para aderir a um processo de relocalização da habitação. Face à pertinência do tema e à expectativa do mesmo ser considerado uma prioridade da política da atualidade, considera-se a necessidade de desenvolvimentos futuros de aprofundamento de conhecimentos em paralelo com uma aproximação ao sistema institucional de gestão territorial costeira, no sentido da minimização dos conflitos entre dinâmica costeira e uso do território e da prevenção do risco costeiro, particularmente risco de inundação e de erosão.
Resumo:
Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.
Resumo:
O tema principal desta tese é o problema de cancelamento de interferência para sistemas multi-utilizador, com antenas distribuídas. Como tal, ao iniciar, uma visão geral das principais propriedades de um sistema de antenas distribuídas é apresentada. Esta descrição inclui o estudo analítico do impacto da ligação, dos utilizadores do sistema, a mais antenas distribuídas. Durante essa análise é demonstrado que a propriedade mais importante do sistema para obtenção do ganho máximo, através da ligação de mais antenas de transmissão, é a simetria espacial e que os utilizadores nas fronteiras das células são os mais bene ciados. Tais resultados são comprovados através de simulação. O problema de cancelamento de interferência multi-utilizador é considerado tanto para o caso unidimensional (i.e. sem codi cação) como para o multidimensional (i.e. com codi cação). Para o caso unidimensional um algoritmo de pré-codi cação não-linear é proposto e avaliado, tendo como objectivo a minimização da taxa de erro de bit. Tanto o caso de portadora única como o de multipla-portadora são abordados, bem como o cenário de antenas colocadas e distribuidas. É demonstrado que o esquema proposto pode ser visto como uma extensão do bem conhecido esquema de zeros forçados, cuja desempenho é provado ser um limite inferior para o esquema generalizado. O algoritmo é avaliado, para diferentes cenários, através de simulação, a qual indica desempenho perto do óptimo, com baixa complexidade. Para o caso multi-dimensional um esquema para efectuar "dirty paper coding" binário, tendo como base códigos de dupla camada é proposto. No desenvolvimento deste esquema, a compressão com perdas de informação, é considerada como um subproblema. Resultados de simulação indicam transmissão dedigna proxima do limite de Shannon.
Resumo:
O objeto principal desta tese é o estudo de algoritmos de processamento e representação automáticos de dados, em particular de informação obtida por sensores montados a bordo de veículos (2D e 3D), com aplicação em contexto de sistemas de apoio à condução. O trabalho foca alguns dos problemas que, quer os sistemas de condução automática (AD), quer os sistemas avançados de apoio à condução (ADAS), enfrentam hoje em dia. O documento é composto por duas partes. A primeira descreve o projeto, construção e desenvolvimento de três protótipos robóticos, incluindo pormenores associados aos sensores montados a bordo dos robôs, algoritmos e arquitecturas de software. Estes robôs foram utilizados como plataformas de ensaios para testar e validar as técnicas propostas. Para além disso, participaram em várias competições de condução autónoma tendo obtido muito bons resultados. A segunda parte deste documento apresenta vários algoritmos empregues na geração de representações intermédias de dados sensoriais. Estes podem ser utilizados para melhorar técnicas já existentes de reconhecimento de padrões, deteção ou navegação, e por este meio contribuir para futuras aplicações no âmbito dos AD ou ADAS. Dado que os veículos autónomos contêm uma grande quantidade de sensores de diferentes naturezas, representações intermédias são particularmente adequadas, pois podem lidar com problemas relacionados com as diversas naturezas dos dados (2D, 3D, fotométrica, etc.), com o carácter assíncrono dos dados (multiplos sensores a enviar dados a diferentes frequências), ou com o alinhamento dos dados (problemas de calibração, diferentes sensores a disponibilizar diferentes medições para um mesmo objeto). Neste âmbito, são propostas novas técnicas para a computação de uma representação multi-câmara multi-modal de transformação de perspectiva inversa, para a execução de correcção de côr entre imagens de forma a obter mosaicos de qualidade, ou para a geração de uma representação de cena baseada em primitivas poligonais, capaz de lidar com grandes quantidades de dados 3D e 2D, tendo inclusivamente a capacidade de refinar a representação à medida que novos dados sensoriais são recebidos.
Resumo:
A linha de investigação deste estudo é a ‘articulação da Investigação em Didáctica das Ciências e Práticas de Ensino dos Professores de Ciências’. O seu enquadramento teórico e metodológico inicial assentou nos estudos das áreas ‘Relações entre Investigação e as Práticas’ e ‘Avaliação da Formação Pós-Graduada – vertente impacte/articulação’. Inicialmente, fez-se uma análise histórico-epistemológica da Didáctica desde a sua génese até aos dias de hoje, para se compreender quer as raízes do gap entre académicos e práticos em geral, quer a crescente necessidade de articulação. Posteriormente, avançou-se para a primeira área, partindo da polémica despoletada por Hargreaves, ao defender que o ensino deveria ser uma profissão baseada na investigação. Em seguida, partiu-se de uma análise mais geral sobre a Investigação e as Práticas no contexto educacional em vários países antes se centrar especificamente no contexto da Didáctica das Ciências (impacte da IDC nas Práticas e constrangimentos na articulação). Analisou-se também brevemente as relações entre a IDC e Práticas no contexto da Formação de Professores, e não a área da Formação de Professores, para mantermos sempre o foco nas questões inerentes à articulação. Culminou-se na análise das culturas e epistemologias da acção e da investigação, com especial destaque para o conceito de professorinvestigador na actualidade e para a descrição das barreiras epistemológicas e ontológicas. Concluiu-se que as comunidades da investigação e da acção utilizavam o conceito ‘articulação’ indiscriminadamente como sinónimo de interacções, contacto, aproximação, impacte, etc., o que acabou esvaziando-o do seu verdadeiro significado. No que diz respeito à segunda área, a sua análise partiu da descrição da evolução de dez anos (1997-2007) de estudos sobre a Avaliação do Impacte dos CM nas práticas por ser considerada uma forma eficaz de articular as dimensões da Didáctica em direcção a um novo olhar sobre o conceito ‘articulação’. Além disso, apontou a dificuldade de se avaliar o impacte ao nível macro, por um lado, por não se tratar de uma prática investigativa institucionalizada no estatuto da carreira dos professores dos EB e ES e, por outro, por ainda colidir com diferentes concepções da natureza das investigações realizadas por Professores encontradas em ambas as comunidades, entendida ora como processo cognitivo (para o desenvolvimento profissional dos professores), ora como prática social (para construção de conhecimento no campo da Didáctica). Foram compiladas ainda as sugestões para se potenciar o impacte da IDC nas Práticas e/ou a articulação entre a IDC-Práticas em contexto formativo de diversos estudos avaliativos. Finalizou-se a análise chamando a atenção para cinco aspectos que ainda carecem de maior aprofundamento nesta área. Este longo enquadramento evidenciou a complexidade da problemática ‘articulação’ decorrente da interdependência das várias dimensões (epistemológica, política, ontológica, psicológica, ética, entre outras). Por exemplo, a ausência de consenso sobre critérios para a avaliação da qualidade da investigação produzida por professores (dimensões política e epistemológica) acaba, por vezes, por não conferir legitimidade às mesmas e por influenciar a legitimação pela comunidade académica, o que resulta na necessidade de diferenciação dos contributos e no maior afastamento entre as comunidades (dimensão ontológica), entre outros. Assim, optou-se por iniciar a análise do fenómeno ‘articulação entre IDCPráticas’ através dos primeiros modelos de articulação investigação-ensino, os quais visavam, contudo, fundamentalmente o impacte da IDC nas Práticas de Ensino das Ciências. Posteriormente, foram apresentadas as potencialidades da Avaliação ↔ Feedback, TIC e Colaboração (estratégias/métodos) para potenciar a articulação entre Investigação- Práticas. No que diz respeito à investigação empírica, realizou-se um estudo de caso descritivo e explorativo de natureza mista. O caso único, crítico e instrumental foi o fenómeno “articulação entre a IDC-Práticas na Formação Didáctica Pós- Graduada” no contexto da unidade curricular ‘Metodologia do Ensino da Física’ (MEF) do Curso de Mestrado em Ensino de Física. A técnica de análise geral utilizada foi a “descrição do caso” pelo facto de não se ter um referencial teórico especificamente sobre o caso. O caso contemplou três unidades de análise, a saber: Caracterização dos Professores-Formandos; Funcionamento da Unidade Curricular e Dinâmica dos currículos dos módulos articuladores. Estas unidades de análises permitiram evidenciar de que forma as características e/ou alterações implementadas na disciplina MEF contribuíram (ou podem contribuir) para a articulação da IDC-Práticas e descrever as dinâmicas do currículo (intencional – negociado – acção), evidenciando em que medida promoveram (ou inibiram) a articulação IDC – práticas. O estudo de caso aqui descrito revelou, ainda, a existência de dois níveis de articulação entre a Investigação e as Práticas no contexto formativo. O primeiro nível foi a articulação entre a Investigação sobre o Ensino Superior/Formação de Professores de Ciências (patente nas estratégias/métodos utilizados na disciplina) e a prática formativa dos IF no contexto da disciplina. O segundo nível centrou-se na articulação entre a Investigação sobre o Ensino não-Superior/Didáctica das Ciências e as práticas de Ensino das Ciências, base orientadora do currículo da disciplina aqui analisada, concretizado nos dois módulos articuladores descritos. Destacam-se algumas dimensões de análise descritas na presente investigação empírica, a saber: Utilização das TIC; Avaliação do Ensino baseada no feedback dos alunos; Avaliação Formativa das Aprendizagens e feedback; Trabalho de grupo realizado nos módulos articuladores; Currículo centrado na IDC; Currículo centrado na articulação da IDC-Práticas de Ensino das Ciências; Currículo centrado nas Práticas de Ensino das Ciências; Currículo centrado na articulação da Investigação-Práticas formativas e Currículo centrado nas Políticas Educativas. Relativamente a dinâmica dos currículos (intencional - negociado - acção) dos dois módulos articuladores, foram definidos quatro construtos (objectos de ensino, objectos de aprendizagem, objectivos de ensino e objectivos de aprendizagem) que culminaram na discussão de vários aspectos a serem considerados nos próximos cursos como, por exemplo: 1) Importância de o contrato didáctico prever a inclusão de objectos de aprendizagem; 2) Incompatibilidade do objectivo de aprendizagem ‘compreender a importância da IDC e a sua relevância para as práticas lectivas em contextos específicos’ num quadro formativo articulador; e 3) Importância de os cursos de formação de professores explicitarem quais ferramentas investigativas são necessárias à produção autónoma de conhecimento no contexto escolar e académico (mesmo que não sejam mobilizadas), de forma a que os professores possam delinear previamente planos individuais de formação/investigação. O estudo termina com a apropriação do modelo de articulação entre a Investigação Educacional e Práticas de McIntyre (2005) ao contexto da Didáctica das Ciências evidenciando uma relação dialógica com a investigação empírica. Apesar de este modelo priorizar a dimensão epistemológica (que aceita o gap pela impossibilidade epistemológica do seu total desaparecimento), na sua apropriação foi considerada a influência das outras dimensões. Esta apropriação assentou, portanto, numa visão moderada de articulação e na complexidade inerente à interdependência das dimensões. Foram propostos três caminhos epistemológicos complementares para a articulação entre a IDC-Práticas: 1º) Interacções entre Didáctica Investigativa – Didáctica Profissional; 2º) Utilização de estratégias na IDC especialmente desenhadas para informar as práticas de ensino; e 3º) Realização de IDC pela escola. Em cada um destes caminhos procurou-se enquadrar algumas sugestões e iniciativas já levadas a cabo para potenciar o impacte e/ou articulação e que se encontravam referenciadas na literatura em geral e no contexto português em particular. O primeiro caminho (composto por cinco etapas) evidenciou-se como aquele que leva a maior vantagem pelas inúmeras intervenções possíveis. A investigação empírica aqui apresentada enquadrou-se inclusivamente neste primeiro caminho pelo facto de ter sido uma iniciativa com a intencionalidade explícita de articular a Didáctica Investigativa e Profissional e por ter sido realizada no contexto da Formação Pós-Graduada (cenário considerado privilegiado para a promoção de interacções). Esta iniciativa foi realizada exclusivamente no âmbito curricular da Formação Pós-Graduada (Didáctica Curricular) e procurou articular as dimensões epistemológicas da Didáctica através da utilização de ‘mecanismos potencialmente articuladores’ (Avaliação - feedback, TIC e Colaboração). Foram descritas as quatro etapas deste primeiro caminho percorridas empiricamente com variações no grau de concretização, com excepção da quinta etapa ‘Investigação sobre a prática de ensino com generalização situada’ porque a vertente dissertativa do respectivo curso não fez parte do corpus. Assim, a articulação ocorreu fundamentalmente no nível epistemológico (currículo da disciplina). No que diz respeito ao 2º caminho, é aquele em que a comunidade académica mais tem investido, quer pelas críticas voltadas especificamente para a investigação, quer pelo sucesso na potenciação do impacte nas propostas até agora implementadas. Deve ser utilizado de forma complementar ao 1º, envolvendo, de preferência, os Professores que percorrem frequentemente o 1º caminho na sua prática diária. Esta condição justifica-se pela necessidade de se integrar legitimamente os professores nas equipas de investigação, aumentando concomitantemente a contribuição das Práticas para a construção de conhecimento no campo educacional. Finalmente, o 3º caminho é aquele que ainda não pode ser concretizado porque, para as Escolas serem diferentes das actuais na dimensão epistemológica (tornando-se produtoras de conhecimento didáctico), seriam necessárias medidas estruturais e articuladas nas várias dimensões anteriormente referidas. Entretanto, foram apontadas algumas soluções como, por exemplo, a utilização de investigações de generalização situada nas Escolas e a ligação das Escolas em redes. Estas investigações locais não substituiriam, mas mobilizariam a IDC produzida nas Universidades (centradas na construção do campo Didáctica das Ciências). Este caminho visionário culmina por um lado, com uma análise prospectiva assente na relação de complementaridade entre as evidências científicas e experienciais porque uma prática sem suporte investigativo é imprudente e uma investigação sem suporte experiencial é imatura. Por outro com uma constatação tardia (deveras reconfortante) que os estudos centrados na relação entre a Investigação e Práticas são estudos voltados para a Formação de Investigadores-Seniores por exigirem uma meta-reflexão da prática investigativa e do processo investigativo. As implicações do estudo são: (i) futuras iniciativas de articulação entre IDCPráticas; (ii) implementar e avaliar as sugestões advindas em novos contextos formativos; e (iii) na Educação a distância na área da Didáctica e Formação Didáctica de Professores. Assume-se a limitação estrutural da investigação resultante da alteração do projecto inicial que o restringiu a uma única etapa. Faz-se ainda uma reflexão do processo formativo-investigativo mediante a descrição dos constrangimentos de natureza interna e externa. Explicitam-se as limitações de carácter geral e específico e algumas tentativas de minimização dos respectivos efeitos no estudo. Finaliza-se o estudo com algumas sugestões de trabalhos futuros, a saber: (i) Continuidade dos estudos centrados na articulação entre IDC-Práticas; (ii) Continuidade dos estudos de Avaliação da Formação Pós-Graduada em termos de eficiência, eficácia, impacte e articulação; (iii) Análise da Epistemologia da Prática Docente em comunidades de práticas escolares; (iv) Articulação entre a Investigação sobre a Formação de Professores e as práticas dos formadores e futuros-formadores; e (v) Constituição de “Scholarship of teaching” na Formação de Professores.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
Esta tese apresenta um sistema de localização baseado exclusivamente em ultrassons, não necessitando de recorrer a qualquer outra tecnologia. Este sistema de localização foi concebido para poder operar em ambientes onde qualquer outra tecnologia não pode ser utilizada ou o seu uso está condicionado, como são exemplo aplicações subaquáticas ou ambientes hospitalares. O sistema de localização proposto faz uso de uma rede de faróis fixos permitindo que estações móveis se localizem. Devido à necessidade de transmissão de dados e medição de distâncias foi desenvolvido um pulso de ultrassons robusto a ecos que permite realizar ambas as tarefas com sucesso. O sistema de localização permite que as estações móveis se localizem escutando apenas a informação em pulsos de ultrassons enviados pelos faróis usando para tal um algoritmo baseado em diferenças de tempo de chegada. Desta forma a privacidade dos utilizadores é garantida e o sistema torna-se completamente independente do número de utilizadores. Por forma a facilitar a implementação da rede de faróis apenas será necessário determinar manualmente a posição de alguns dos faróis, designados por faróis âncora. Estes irão permitir que os restantes faróis, completamente autónomos, se possam localizar através de um algoritmo iterativo de localização baseado na minimização de uma função de custo. Para que este sistema possa funcionar como previsto será necessário que os faróis possam sincronizar os seus relógios e medir a distância entre eles. Para tal, esta tese propõe um protocolo de sincronização de relógio que permite também obter as medidas de distância entre os faróis trocando somente três mensagens de ultrassons. Adicionalmente, o sistema de localização permite que faróis danificados possam ser substituídos sem comprometer a operabilidade da rede reduzindo a complexidade na manutenção. Para além do mencionado, foi igualmente implementado um simulador de ultrassons para ambientes fechados, o qual provou ser bastante preciso e uma ferramenta de elevado valor para simular o comportamento do sistema de localização sobre condições controladas.
Resumo:
Esta tese apresenta um estudo sobre otimização económica de parques eólicos, com o objetivo de obter um algoritmo para otimização económica de parques eólicos através do custo da energia produzida. No estudo utilizou-se uma abordagem multidisciplinar. Inicialmente, apresentam-se as principais tecnologias e diferentes arquiteturas utilizadas nos parques eólicos. Bem como esquemas de funcionamento e gestão dos parques. São identificadas variáveis necessárias e apresenta-se um modelo dimensionamento para cálculo dos custos da energia produzida, tendo-se dado ênfase às instalações onshore e ligados a rede elétrica de distribuição. É feita uma análise rigorosa das características das topologias dos aerogeradores disponíveis no mercado, e simula-se o funcionamento de um parque eólico para testar a validade dos modelos desenvolvidos. Também é implementado um algoritmo para a obtenção de uma resposta otimizada para o ciclo de vida económico do parque eólico em estudo. A abordagem proposta envolve algoritmos para otimização do custo de produção com multiplas funções objetivas com base na descrição matemática da produção de eletricidade. Foram desenvolvidos modelos de otimização linear, que estabelece a ligação entre o custo económico e a produção de eletricidade, tendo em conta ainda as emissões de CO2 em instrumentos de política energética para energia eólica. São propostas expressões para o cálculo do custo de energia com variáveis não convencionais, nomeadamente, para a produção variável do parque eólico, fator de funcionamento e coeficiente de eficiência geral do sistema. Para as duas últimas, também é analisado o impacto da distribuição do vento predominante no sistema de conversão de energia eólica. Verifica-se que os resultados obtidos pelos algoritmos propostos são similares às obtidas por demais métodos numéricos já publicados na comunidade científica, e que o algoritmo de otimização económica sofre influência significativa dos valores obtidos dos coeficientes em questão. Finalmente, é demonstrado que o algoritmo proposto (LCOEwso) é útil para o dimensionamento e cálculo dos custos de capital e O&M dos parques eólicos com informação incompleta ou em fase de projeto. Nesse sentido, o contributo desta tese vem ser desenvolver uma ferramenta de apoio à tomada de decisão de um gestor, investidor ou ainda agente público em fomentar a implantação de um parque eólico.
Resumo:
Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.