57 resultados para algoritmos de agrupamento

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O reforço e a diversificação do investimento na comunicação por parte das instituições educativas são discutidos neste estudo como uma das consequências da nova gestão pública. Tendo em vista a ‘qualidade’ e a ‘eficácia’ das suas prestações, as escolas têm procurado tornar-se mais dialogantes, assumindo a aposta na comunicação organizacional como parte integrante de uma estratégia empreendedora, que lhes tem vindo a conferir uma nova identidade colectiva unificada em torno dos valores neoliberais. Não obstante, os sistemas de comunicação criados são mais complexos do que se poderia supor. Revelando a influência de pressões híbridas, estes sistemas transformaram-se num contexto mediador da mudança embutido em novas concepções de escola e dos novos mandatos para a educação (assim legitimados interna e externamente), surgindo, ao mesmo tempo, como o locus de produção de novas identidades. Tal acontece porque a comunicação constitui o ponto de convergência entre as diferentes políticas educativas e as práticas localmente adoptadas na sequência de um processo de interpretação criativa das diferentes pressões. É este o sentido com que afirmamos que a comunicação se constitui numa meta-ideia ao serviço da ‘qualidade’, ainda que esta possa ser perspectivada a partir do ideal burocrático da organização (como sinónimo de eficiência administrativa), do ideal profissional (centrada no processo de ensino-aprendizagem) ou do ideal empreendedor (valorizando a capacidade de resposta às solicitações do mercado). Os dados empíricos, que sustentaram o nosso estudo, resultaram da observação do quotidiano de um agrupamento de escolas do ensinobásico e dos testemunhos recolhidos, ao longo de três anos, nesta comunidade educativa. Recorrendo ao estudo de caso como estratégia de investigação enveredámos inicialmente, num contexto de descoberta, pela realização de observações ‘desarmadas e naturais’. Usámos, posteriormente, a análise documental, a entrevista e o questionário na recolha de informação complementar, o que, mediante o cruzamento de métodos de análise qualitativa e quantitativa, nos permitiu tirar partido da triangulação dos dados. Os resultados obtidos apontam para a centralidade dos processos de comunicação na transformação induzida pela nova gestão pública e para o desenvolvimento de uma matriz discursiva bilinguista, que procura harmonizar os imperativos de ‘mercado’ com o discurso pedagógico e com modelos burocrático-profissionais de organização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As medidas políticas tornam-se palco dos processos de apropriação e recepção que se desenvolvem a vários níveis, especificamente, na escola, na sociedade civil e na comunidade científica. A escola apresenta-se, neste processo, como um dos cenários em que alunos, pais e, em especial, os professores surgem como actores que reinterpretam o discurso oficial, reconhecendo nele potencialidades e limites, em face das suas expectativas, concepções e práticas, e que procedem à sua transposição pedagógica, através dos objectivos que seleccionam, dos objectos que lêem, das actividades e dos recursos mobilizados. A relevância social da leitura, a sua centralidade e transversalidade curriculares, assim como o investimento político no domínio da promoção leitora, na escola, através da criação do Plano Nacional de Leitura, fazem desta medida política, um campo privilegiado para a análise dos modos de recepção desenvolvidos pelos professores. Enquadrado numa perspectiva descritiva e interpretativa da investigação em Didáctica, assumindo a importância da construção pessoal e colectiva da leitura e dos leitores num quadro escolar, este estudo baseia-se no pressuposto de que a promoção da leitura, na escola, tendo como referência o PNL, terá de se ancorar no conhecimento sobre os modos de recepção desta medida política. Partindo de um desenho metodológico assente num estudo de caso, recolhemos dados, de natureza qualitativa e quantitativa, que nos permitem conhecer e interpretar a relação de um agrupamento de escolas do ensino básico com as práticas de leitura realizadas no âmbito do PNL. O percurso de análise e reflexão que construímos durante este estudo permitiu-nos sobretudo evidenciar a receptividade às propostas políticas, de nível global, actualizadas numa lógica de especificidade local. Constituem lugares de maior adesão, por parte dos professores, o reconhecimento das potencialidades do PNL, especificamente, o alargamento do fundo bibliográfico, o aumento das práticas de leitura, o maior conhecimento de diferentes géneros textuais e a possibilidade de integrar o livro nas práticas de leitura. O processo de interpretação destas propostas aparece contudo atravessado por tensões e ambiguidades. Entre os lugares de resistência, verifica-se uma certa dificuldade em desenvolver competências de leitura, de diversificação de textos e de modos de os ler. O estudo pretende constituir um contributo para o alargamento do conhecimento sobre os processos de construção escolar da leitura, de recepção desenvolvidos pelos professores, no âmbito do PNL, apresentando igualmente pistas para a avaliação das possibilidades de desenvolvimento e consecução desta medida política, assim como para a definição de políticas de formação contínua de professores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O advento da Internet e da Web, na década de 1990, a par da introdução e desenvolvimento das novas TIC e, por consequência, a emergência da Sociedade da Informação e do Conhecimento, implicaram uma profunda alteração na forma de análise dos processos de ensino-aprendizagem, já não apenas segundo um prisma cognitivista, mas, agora, também social, isto é, segundo a(s) perspetiva(s) construtivista(s). Simultaneamente, torna-se imperativo que, para que possam transformar-se em futuros trabalhadores de sucesso, isto é, trabalhadores de conhecimento (Gates, 1999), os sujeitos aprendentes passem a ser efetivamente educados/preparados para a Sociedade da Informação e do Conhecimento e, tanto quanto possível, através da educação/formação ao longo da vida (Moore e Thompson, 1997; Chute, Thompson e Hancock, 1999). Todavia, de acordo com Jorge Reis Lima e Zélia Capitão, não se deve considerar esta mudança de paradigma como uma revolução mas, antes, uma evolução, ou, mais concretamente ainda, uma “conciliação de perspectivas cognitivas e sociais” (Reis Lima e Capitão, 2003:53). Assim, às instituições de ensino/formação cumprirá a tarefa de preparar os alunos para as novas competências da era digital, promovendo “a aprendizagem dos pilares do conhecimento que sustentarão a sua aprendizagem ao longo da vida” (Reis Lima e Capitão, Ibidem:54), isto é, “aprender a conhecer”, “aprender a fazer”, “aprender a viver em comum”, e “aprender a ser” (Equipa de Missão para a Sociedade da Informação, 1997:39; negritos e sublinhados no original). Para outros, a Internet, ao afirmar-se como uma tecnologia ubíqua, cada vez mais acessível, e de elevado potencial, “vem revolucionando a gestão da informação, o funcionamento do mercado de capitais, as cadeias e redes de valor, o comércio mundial, a relação entre governos e cidadãos, os modos de trabalhar e de comunicar, o entretenimento, o contacto intercultural, os estilos de vida, as noções de tempo e de distância. A grande interrogação actual reside em saber se a Internet poderá também provocar alterações fundamentais nos modos de aprender e de ensinar” (Carneiro, 2002:17-18; destaques no original). Trata-se, portanto, como argumenta Armando Rocha Trindade (2004:10), de reconhecer que “Os requisitos obrigatórios para a eficácia da aprendizagem a ser assim assegurada são: a prévia disponibilidade de materiais educativos ou de formação de alta qualidade pedagógica e didáctica, tanto quanto possível auto-suficientes em termos de conteúdos teóricos e aplicados, bem como a previsão de mecanismos capazes de assegurar, permanentemente, um mínimo de interactividade entre docentes e aprendentes, sempre que quaisquer dificuldades destes possam manifestarse”. Esta questão é também equacionada pelo Eng.º Arnaldo Santos, da PT Inovação, quando considera que, à semelhança da “maioria dos países, a formação a distância em ambientes Internet e Intranet, vulgo e-Learning, apresenta-se como uma alternativa pedagógica em franca expansão. Portugal está a despertar para esta nova realidade. São várias as instituições nacionais do sector público e privado que utilizam o e-Learning como ferramenta ou meio para formar as suas pessoas” (Santos, 2002:26). Fernando Ramos acrescenta também que os sistemas de educação/formação que contemplam componentes não presenciais, “isto é que potenciam a flexibilidade espacial, têm vindo a recorrer às mais variadas tecnologias de comunicação para permitir a interacção entre os intervenientes, nomeadamente entre os professores e os estudantes. Um pouco por todo o mundo, e também em Portugal, se têm implantado sistemas (habitualmente designados como sistemas de ensino a distância), recorrendo às mais diversas tecnologias de telecomunicações, de que os sistemas de educação através de televisão ou os sistemas de tutoria por rádio ou telefone são exemplos bem conhecidos” (Ramos, 2002b:138-139). Ora, o nosso estudo entronca precisamente na análise de um sistema ou plataforma tecnológica de gestão de aprendizagens (Learning Management System - LMS), o MOODLE, procurando-se, deste modo, dar resposta ao reconhecimento de que “urge investigar sobre a utilização real e pedagógica da plataforma” (Carvalho, 2007:27). Por outro lado, não descurando o rol de interrogações de outros investigadores em torno da utilização do MOODLE, nem enveredando pelas visões mais céticas que inclusive pressagiam a sua “morte” (Fernandes, 2008b:134), também nós nos questionamos se esta ferramenta nem sequer vai conseguir transpor “a fase de final de entusiasmo, e tornar-se uma ferramenta de minorias e de usos ocasionais?” (Fernandes, Op. cit.:133).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A introdução de novas exigências na Avaliação do Desempenho Docente (ADD) em Portugal (Decretos-Lei 15/2007 e 75/2010; Decretos Regulamentares 2/2008 e 2/2010) tem gerado nas escolas e nos professores, desde 2008, situações organizacionais complexas, que urge analisar e compreender. As políticas educativas têm vindo a apontar para a necessidade de um maior investimento nos processos de avaliação de professores, dando relevância ao papel a desempenhar pela supervisão pedagógica nesse contexto. A supervisão da prática letiva passou a ser considerada procedimento fundamental, na medida em que se tornou difícil conceber uma avaliação dos docentes que não incluísse sessões de observação em sala de aula. Fruto destas novas políticas de avaliação de professores, a ADD apresentou-se, do ponto de vista normativo, com base em duas funções: sumativa e formativa. Estas funções exigem maiores investimentos, novas práticas e uma reflexão sobre o papel do professor ancorada numa perspetiva holística, transformadora e emancipatória do seu desenvolvimento profissional. O principal objetivo do nosso estudo consiste em compreender as perceções e práticas desenvolvidas pelos docentes face às alterações introduzidas no sistema da ADD no geral, e, em particular, o papel desempenhado pela supervisão pedagógica (SP) na avaliação entre pares, no segundo ciclo avaliativo (2009-2011). A investigação empírica tem por base um estudo de caso desenvolvido num Agrupamento de escolas do Distrito de Aveiro. A recolha de dados foi concretizada através da administração de um questionário a todos os docentes do Agrupamento e da condução de entrevistas a 26 informadores privilegiados do processo avaliativo. Os principais resultados do estudo de caso apontam para: i) a opinião desfavorável dos professores face ao atual modelo de ADD, dada a sua natureza burocrática, complexa, injusta e a sua escassa utilidade prática, preenchendo apenas requisitos legais e de controlo; ii) um processo de SP, concretamente, a observação de aulas, que não contribui para o desenvolvimento profissional dos professores e tem impacte negativo no trabalho docente, acentuando a artificialidade dos procedimentos e aumentando o clima de competição e de conflito; iii) a sensação de desconforto entre os intervenientes, fazendo emergir sentimentos de injustiça, insegurança e ansiedade que, em seu entender, constituem constrangimentos à melhoria das aprendizagens dos alunos e à qualidade da escola; iv) uma escassa implicação na melhoria das práticas futuras e do desenvolvimento profissional dos docentes. Estes resultados constituem um desafio colocado aos investigadores no sentido de identificarem alternativas de ação para poderem lidar com a complexidade inerente ao processo de avaliação na sua relação com a supervisão pedagógica, com vista à melhoria de desempenho das escolas e dos professores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As escolas do 1º ciclo e os jardins-de-infância confrontaram-se recentemente com a obrigatoriedade de se organizarem em associação com outras escolas do 2º e 3º ciclos do ensino básico através dos chamados Agrupamentos de Escolas. Estes Agrupamentos (verticais) poderão ser entendidos como funcionando num certo modelo de rede piramidal ou seja, cria-se um centro de decisão – a escola-sede do Agrupamento (por norma, uma escola do 2º e 3º ciclo do ensino básico, com os seus órgãos de gestão de topo) – relativamente ao qual se afiliam uma série de escolas periféricas, designadamente da educação préescolar e do 1º ciclo do ensino básico. Procuraremos, neste estudo, problematizar a situação periférica destes estabelecimentos de educação e de ensino, tendo em conta a complexidade das regulações e tensões a que estão sujeitos e que colocam no centro das atenções a figura do Coordenador de estabelecimento. É com base num estudo de caso sobre um Agrupamento de Escolas, situado no norte do país, que procurámos perceber qual o papel que os Coordenadores de estabelecimento assumem ao nível da gestão intermédia do Agrupamento, analisando em particular a sua condição dederes periféricos deste tipo de organização escolar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de sistemas computacionais é um processo complexo, com múltiplas etapas, que requer uma análise profunda do problema, levando em consideração as limitações e os requisitos aplicáveis. Tal tarefa envolve a exploração de técnicas alternativas e de algoritmos computacionais para optimizar o sistema e satisfazer os requisitos estabelecidos. Neste contexto, uma das mais importantes etapas é a análise e implementação de algoritmos computacionais. Enormes avanços tecnológicos no âmbito das FPGAs (Field-Programmable Gate Arrays) tornaram possível o desenvolvimento de sistemas de engenharia extremamente complexos. Contudo, o número de transístores disponíveis por chip está a crescer mais rapidamente do que a capacidade que temos para desenvolver sistemas que tirem proveito desse crescimento. Esta limitação já bem conhecida, antes de se revelar com FPGAs, já se verificava com ASICs (Application-Specific Integrated Circuits) e tem vindo a aumentar continuamente. O desenvolvimento de sistemas com base em FPGAs de alta capacidade envolve uma grande variedade de ferramentas, incluindo métodos para a implementação eficiente de algoritmos computacionais. Esta tese pretende proporcionar uma contribuição nesta área, tirando partido da reutilização, do aumento do nível de abstracção e de especificações algorítmicas mais automatizadas e claras. Mais especificamente, é apresentado um estudo que foi levado a cabo no sentido de obter critérios relativos à implementação em hardware de algoritmos recursivos versus iterativos. Depois de serem apresentadas algumas das estratégias para implementar recursividade em hardware mais significativas, descreve-se, em pormenor, um conjunto de algoritmos para resolver problemas de pesquisa combinatória (considerados enquanto exemplos de aplicação). Versões recursivas e iterativas destes algoritmos foram implementados e testados em FPGA. Com base nos resultados obtidos, é feita uma cuidada análise comparativa. Novas ferramentas e técnicas de investigação que foram desenvolvidas no âmbito desta tese são também discutidas e demonstradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese insere-se na área da simulação de circuitos de RF e microondas, e visa o estudo de ferramentas computacionais inovadoras que consigam simular, de forma eficiente, circuitos não lineares e muito heterogéneos, contendo uma estrutura combinada de blocos analógicos de RF e de banda base e blocos digitais, a operar em múltiplas escalas de tempo. Os métodos numéricos propostos nesta tese baseiam-se em estratégias multi-dimensionais, as quais usam múltiplas variáveis temporais definidas em domínios de tempo deformados e não deformados, para lidar, de forma eficaz, com as disparidades existentes entre as diversas escalas de tempo. De modo a poder tirar proveito dos diferentes ritmos de evolução temporal existentes entre correntes e tensões com variação muito rápida (variáveis de estado activas) e correntes e tensões com variação lenta (variáveis de estado latentes), são utilizadas algumas técnicas numéricas avançadas para operar dentro dos espaços multi-dimensionais, como, por exemplo, os algoritmos multi-ritmo de Runge-Kutta, ou o método das linhas. São também apresentadas algumas estratégias de partição dos circuitos, as quais permitem dividir um circuito em sub-circuitos de uma forma completamente automática, em função dos ritmos de evolução das suas variáveis de estado. Para problemas acentuadamente não lineares, são propostos vários métodos inovadores de simulação a operar estritamente no domínio do tempo. Para problemas com não linearidades moderadas é proposto um novo método híbrido frequência-tempo, baseado numa combinação entre a integração passo a passo unidimensional e o método seguidor de envolvente com balanço harmónico. O desempenho dos métodos é testado na simulação de alguns exemplos ilustrativos, com resultados bastante promissores. Uma análise comparativa entre os métodos agora propostos e os métodos actualmente existentes para simulação RF, revela ganhos consideráveis em termos de rapidez de computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda o problema da estimação de canal e da estimação de desvio de frequência em sistemas OFDM com múltiplas configurações de antenas no transmissor e no receptor. Nesta tese é apresentado o estudo teórico sobre o impacto da densidade de pilotos no desempenho da estimação de canal em sistemas OFDM e são propostos diversos algoritmos para estimação de canal e estimação de desvio de frequência em sistemas OFDM com antenas únicas no transmissor e receptor, com diversidade de transmissão e MIMO. O estudo teórico culmina com a formulação analítica do erro quadrático médio de um estimador de canal genérico num sistema OFDM que utilize pilotos dedicados, distribuidos no quadro transmitido em padrões bi-dimensionais. A formulação genérica é concretizada para o estimador bi-dimensional LS-DFT, permitindo aferir da exactidão da formulação analítica quando comparada com os valores obtidos por simulação do sistema abordado. Os algoritmos de estimação investigados tiram partido da presença de pilotos dedicados presentes nos quadros transmitidos para estimar com precisão os parâmetros pretendidos. Pela sua baixa complexidade, estes algoritmos revelam-se especialmente adequados para implementação em terminais móveis com capacidade computacional e consumo limitados. O desempenho dos algoritmos propostos foi avaliado por meio de simulação do sistema utilizado, recorrendo a modelos aceites de caracterização do canal móvel multipercurso. A comparação do seu desempenho com algoritmos de referência permitir aferir da sua validade. ABSTRACT: The present work focus on the problem of channel estimation and frequency offset estimation in OFDM systems, with different antenna configurations at both the transmitter and the receiver. This thesis presents the theoretical study of the impact of the pilot density in the performance of the channel estimation in OFDM systems and proposes several channel and frequency offset algorithms for OFDM systems with single antenna at both transmitter and receiver, with transmitter diversity and MIMO. The theoretical study results in the analytical formulation of the mean square error of a generic channel estimator for an OFDM system using dedicated pilots, distributed in the transmitted frame in two-dimensional patterns. The generic formulation is implemented for the two-dimensional LS-DFT estimator to verify the accuracy of the analytical formulation when compared with the values obtained by simulation of the discussed system. The investigated estimation algorithms take advantage of the presence of dedicated pilots present in the transmitted frames to accurately estimate the required parameters. Due to its low complexity, these algorithms are especially suited for implementation in mobile terminals with limited processing power and consumption. The performance of the proposed algorithms was evaluated by simulation of the used system, using accepted multipath mobile channel models. The comparison of its performance with the one of reference algorithms measures its validity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os problemas de visibilidade têm diversas aplicações a situações reais. Entre os mais conhecidos, e exaustivamente estudados, estão os que envolvem os conceitos de vigilância e ocultação em estruturas geométricas (problemas de vigilância e ocultação). Neste trabalho são estudados problemas de visibilidade em estruturas geométricas conhecidas como polígonos, uma vez que estes podem representar, de forma apropriada, muitos dos objectos reais e são de fácil manipulação computacional. O objectivo dos problemas de vigilância é a determinação do número mínimo de posições para a colocação de dispositivos num dado polígono, de modo a que estes dispositivos consigam “ver” a totalidade do polígono. Por outro lado, o objectivo dos problemas de ocultação é a determinação do número máximo de posições num dado polígono, de modo a que quaisquer duas posições não se consigam “ver”. Infelizmente, a maior parte dos problemas de visibilidade em polígonos são NP-difíceis, o que dá origem a duas linhas de investigação: o desenvolvimento de algoritmos que estabelecem soluções aproximadas e a determinação de soluções exactas para classes especiais de polígonos. Atendendo a estas duas linhas de investigação, o trabalho é dividido em duas partes. Na primeira parte são propostos algoritmos aproximados, baseados essencialmente em metaheurísticas e metaheurísticas híbridas, para resolver alguns problemas de visibilidade, tanto em polígonos arbitrários como ortogonais. Os problemas estudados são os seguintes: “Maximum Hidden Vertex Set problem”, “Minimum Vertex Guard Set problem”, “Minimum Vertex Floodlight Set problem” e “Minimum Vertex k-Modem Set problem”. São também desenvolvidos métodos que permitem determinar a razão de aproximação dos algoritmos propostos. Para cada problema são implementados os algoritmos apresentados e é realizado um estudo estatístico para estabelecer qual o algoritmo que obtém as melhores soluções num tempo razoável. Este estudo permite concluir que as metaheurísticas híbridas são, em geral, as melhores estratégias para resolver os problemas de visibilidade estudados. Na segunda parte desta dissertação são abordados os problemas “Minimum Vertex Guard Set”, “Maximum Hidden Set” e “Maximum Hidden Vertex Set”, onde são identificadas e estudadas algumas classes de polígonos para as quais são determinadas soluções exactas e/ou limites combinatórios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho focou-se no estudo de técnicas de sub-espaço tendo em vista as aplicações seguintes: eliminação de ruído em séries temporais e extracção de características para problemas de classificação supervisionada. Foram estudadas as vertentes lineares e não-lineares das referidas técnicas tendo como ponto de partida os algoritmos SSA e KPCA. No trabalho apresentam-se propostas para optimizar os algoritmos, bem como uma descrição dos mesmos numa abordagem diferente daquela que é feita na literatura. Em qualquer das vertentes, linear ou não-linear, os métodos são apresentados utilizando uma formulação algébrica consistente. O modelo de subespaço é obtido calculando a decomposição em valores e vectores próprios das matrizes de kernel ou de correlação/covariância calculadas com um conjunto de dados multidimensional. A complexidade das técnicas não lineares de subespaço é discutida, nomeadamente, o problema da pre-imagem e a decomposição em valores e vectores próprios de matrizes de dimensão elevada. Diferentes algoritmos de préimagem são apresentados bem como propostas alternativas para a sua optimização. A decomposição em vectores próprios da matriz de kernel baseada em aproximações low-rank da matriz conduz a um algoritmo mais eficiente- o Greedy KPCA. Os algoritmos são aplicados a sinais artificiais de modo a estudar a influência dos vários parâmetros na sua performance. Para além disso, a exploração destas técnicas é extendida à eliminação de artefactos em séries temporais biomédicas univariáveis, nomeadamente, sinais EEG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consideramos o problema de controlo óptimo de tempo mínimo para sistemas de controlo mono-entrada e controlo afim num espaço de dimensão finita com condições inicial e final fixas, onde o controlo escalar toma valores num intervalo fechado. Quando aplicamos o método de tiro a este problema, vários obstáculos podem surgir uma vez que a função de tiro não é diferenciável quando o controlo é bang-bang. No caso bang-bang os tempos conjugados são teoricamente bem definidos para este tipo de sistemas de controlo, contudo os algoritmos computacionais directos disponíveis são de difícil aplicação. Por outro lado, no caso suave o conceito teórico e prático de tempos conjugados é bem conhecido, e ferramentas computacionais eficazes estão disponíveis. Propomos um procedimento de regularização para o qual as soluções do problema de tempo mínimo correspondente dependem de um parâmetro real positivo suficientemente pequeno e são definidas por funções suaves em relação à variável tempo, facilitando a aplicação do método de tiro simples. Provamos, sob hipóteses convenientes, a convergência forte das soluções do problema regularizado para a solução do problema inicial, quando o parâmetro real tende para zero. A determinação de tempos conjugados das trajectórias localmente óptimas do problema regularizado enquadra-se na teoria suave conhecida. Provamos, sob hipóteses adequadas, a convergência do primeiro tempo conjugado do problema regularizado para o primeiro tempo conjugado do problema inicial bang-bang, quando o parâmetro real tende para zero. Consequentemente, obtemos um algoritmo eficiente para a computação de tempos conjugados no caso bang-bang.