86 resultados para paradigma ecléctico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente relatório, fundamentado teoricamente, surge do desenvolvimento de um projeto de Educação e Intervenção Social com um grupo de Mulheres, denominado “Mais Valentes”, participantes no Projeto EntrEscolhas – Geração D’Ouro, com base na metodologia de investigaçãoação participativa, inserida no paradigma socio-crítico. O Projeto “Viver sem medo” foi desenvolvido a partir da finalidade de capacitar as mulheres do Grupo Mais Valentes para a tomada de decisão sobre os seus percursos de vida, tendo em conta o seu papel nas diferentes esferas da sociedade e, essencialmente, na família. Neste sentido, recorreram-se a técnicas e métodos de investigação que permitiram a construção do conhecimento sobre o grupo e cada uma das suas participantes, identificando-se problemas, necessidades, potencialidades e objetivos que pudessem responder aos anteriores. Ao longo do relatório é apresentada a construção do conhecimento sobre a realidade e o desenho e desenvolvimento do projeto concretizado conjuntamente com as participantes e, ainda, com contributos do e das Profissionais do Projeto EntrEscolhas – Geração D’Ouro. Neste sentido, foram realizados Encontros semanais com o grupo “Mais Valentes” e, posteriormente, ações com o objetivo de proporcionar a reflexão sobre os papéis sociais e familiares de género, o desenvolvimento de competências de literacia escolar e social e com vista à promoção de um melhor relacionamento interpessoal que permita a partilha e o diálogo. Por forma a avaliar todo o processo, recorreu-se ao modelo de avaliação CIPP, no sentido de se obter uma visão integral de todo o Projeto “Viver sem medo” e, assim, conseguir concretizar uma avaliação sistemática e contínua do mesmo, com base nas vivências de participação no projeto e opiniões das Mulheres e, assim, se possibilitar as mudanças desejadas, num clima de confiança e apoio mútuo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese desenvolvida tem como foco fornecer os meios necessários para extrair conhecimento contidos no histórico académico da instituição transformando a informação em algo simples e de fácil leitura para qualquer utilizador. Com o progresso da sociedade, as escolas recebem milhares de alunos todos os anos que terão de ser orientados e monitorizados pelos dirigentes das instituições académicas de forma a garantir programas eficientes e adequados para o progresso educacional de todos os alunos. Atribuir a um docente a responsabilidade de actuar segundo o historial académico dos seus alunos não é plausível uma vez que um aluno consegue produzir milhares de registos para análise. O paradigma de mineração de dados na educação surge com a necessidade de otimizar os recursos disponíveis expondo conclusões que não se encontram visiveis sem uma análise acentuada e cuidada. Este paradigma expõe de forma clara e sucinta os dados estatísticos analisados por computador oferecendo a possibilidade de melhorar as lacunas na qualidade de ensino das instituições. Esta dissertação detalha o desenvolvimento de uma ferramente de inteligência de negócio capaz de, através de mineração de dados, analisar e apresentar conclusões pertinentes de forma legível ao utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vivemos num mundo em constante mudança, onde a evolução tecnológica está cada vez mais presente no nosso quotidiano e as suas influências são inúmeras nas nossas vidas. Por outro lado, a vida humana é algo extremamente valioso e único pelo que a sociedade, também nessa área, tem procurado evoluir e dotar-se de novos meios e mecanismos de atuação, que possibilitem um socorro rápido e adequado em situações que possam em algum momento pôr em perigo a vida do ser humano. Pretendemos com o presente estudo, correlacionar estas duas vertentes, a do socorro á vítima para apoio á vida humana e a tecnologia no sentido de contribuir para uma formação mais distribuída mas ao mesmo tempo capaz de transmitir conhecimentos necessários á formação dos que socorrem. Para o efeito, planeamos o desenvolvimento de um Objeto de Aprendizagem (OA) denominado CiTAT (Curso Interativo de Tripulante de Ambulância de Transporte) que tem como objetivo acrescentar valor a todos os que são obrigados a frequentar o curso em regime presencial de Tripulante de Ambulância de Transporte (TAT). Após uma fase de análise do estado da arte relacionada com este tipo de formação, e após termos percebido como funciona e que tipos de recursos utilizam, analisámos temas relacionados com este tipo de formação como o “Sistema Integrado de Emergência Médica” o “Exame á Vítima”, o “Suporte Básico de Vida” e as “Emergências de Trauma”. Percebemos que a mudança de paradigma de formação das pessoas passou a ter novas formas de distribuir conhecimento em formato digital e que proporciona aos formandos um ensino distribuído em formatos de e-learning ou de b-learning. Os Objetos de Aprendizagem (OA) parecem assumir um relevo especial no ensino da área da saúde, abordando áreas temáticas e proporcionando aos seus utilizadores mecanismos de autoavaliação após a visualização dos conteúdos pedagógicos. Após o desenho do modelo concetual do CiTAT, avançamos para a produção de recursos necessários para a sua integração no OA. Após uma fase de testes e ajustes, avançamos para a sua avaliação final por parte dos utilizadores e preparamos um questionário para aferir o potencial de utilização deste tipo de soluções no ensino de TAT, atendendo ao facto de ser uma formação obrigatória e cuja recertificação é feita de três em três anos. O passo final foi a sua distribuição ao nível global, sendo o CiTAT catalogado com metadados e colocado no repositório MERLOT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese desenvolvida tem como foco fornecer os meios necessários para extrair conhecimento contidos no histórico académico da instituição transformando a informação em algo simples e de fácil leitura para qualquer utilizador. Com o progresso da sociedade, as escolas recebem milhares de alunos todos os anos que terão de ser orientados e monitorizados pelos dirigentes das instituições académicas de forma a garantir programas eficientes e adequados para o progresso educacional de todos os alunos. Atribuir a um docente a responsabilidade de actuar segundo o historial académico dos seus alunos não é plausível uma vez que um aluno consegue produzir milhares de registos para análise. O paradigma de mineração de dados na educação surge com a necessidade de otimizar os recursos disponíveis expondo conclusões que não se encontram visiveis sem uma análise acentuada e cuidada. Este paradigma expõe de forma clara e sucinta os dados estatísticos analisados por computador oferecendo a possibilidade de melhorar as lacunas na qualidade de ensino das instituições. Esta dissertação detalha o desenvolvimento de uma ferramente de inteligência de negócio capaz de, através de mineração de dados, analisar e apresentar conclusões pertinentes de forma legível ao utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Gestão e Internacionalização de Empresas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório E1CEB - Relatório de estágio em Ensino do 1.º Ciclo do Ensino Básico: Atualmente, a sociedade encontra-se em constante mutação, pelo que urge formar profissionais de educação capazes de responder aos seus desafios, assim como formar cidadãos críticos e responsáveis e estimular a sua participação ativa na sociedade. Desta forma e, no âmbito das unidades curriculares (UC) de Prática Pedagógica Supervisionada na Educação Pré – Escolar e no 1º Ciclo do Ensino Básico (CEB), parte integrante dos 1.º e 2.º anos do Mestrado em Educação Pré-Escolar e Ensino do 1.º CEB, respetivamente, surge o presente relatório que apresenta o processo de desenvolvimento pessoal e profissional da mestranda. Assim, o presente documento pretende ser uma reflexão crítica sobre o processo formativo da formanda, revelando mobilização de conhecimentos teóricos e práticos e uma metodologia construtivista de Investigação – ação, que sustentou as práticas educativas e permitiu um conhecimento sólido e sustentável. Realça, ainda, o desenvolvimento da prática em díade de formação que estimulou o crescimento e a reconstrução de novos conhecimentos enriquecidos por uma reflexão sistemática e contínua. Este trabalho colaborativo promoveu um ambiente educativo profundo, significativo e agradável, contribuindo para a formação individual e coletiva dos vários intervenientes do contexto educativo. Acresce que, ao longo das práticas, a mestranda teve em consideração tudo o que foi aprendendo e desenvolvendo nas diversas UC’s, construindo a sua conceção de educadora e de professora, num contexto relacional e de consciência reflexiva que permitiu uma formação articulada com a ação pedagógica e organizacional, a partir da experiência e transformação dos saberes, eixos fundamentais para a profissionalidade docente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo destes últimos anos as ligações adesivas têm vindo a verificar um aumento progressivo em aplicações estruturais em detrimento das ligações mecânicas convencionais. Esta alteração de paradigma deve-se às vantagens que as juntas adesivas possuem relativamente aos outros métodos de ligação. A mecânica da fratura e os Modelos de Dano Coesivo (MDC) são critérios comuns para prever a resistência em juntas adesivas e usam como parâmetros fundamentais as taxas de libertação de energia. Pelo facto do ensaio 4-Point End Notched Flexure (4-ENF), aplicado em juntas adesivas, ainda estar pouco estudado é de grande relevância um estudo acerca da sua viabilidade para a determinação da taxa crítica de libertação de energia de deformação ao corte (GIIc). Esta dissertação tem como objetivo principal efetuar uma comparação entre os métodos End- Notched Flexure (ENF) e 4-ENF na determinação de GIIc em juntas adesivas. Para tal foram utilizados 3 adesivos: Araldite® AV138, Araldite® 2015 e SikaForce® 7752. O trabalho experimental passou pela conceção e fabrico de uma ferramenta para realização do ensaio 4-ENF, seguindo-se o fabrico e a preparação dos provetes para os ensaios. Pelo facto do ensaio 4-ENF ainda se encontrar pouco divulgado em juntas adesivas, e não se encontrar normalizado, uma parte importante do trabalho passou pela pesquisa e análise em trabalhos de investigação e artigos científicos. A análise dos resultados foi realizada por comparação direta dos valores de GIIc com os resultados obtidos no ensaio ENF, sendo realizada por série de adesivo, através da comparação das curvas P-δ e curvas-R. Como resultado verificou-se que o ensaio 4-ENF em ligações adesivas não é o mais versátil para a determinação do valor de GIIc, e que apenas um método de obtenção de GIIc é viável. Este método é baseado na medição do comprimento de fenda (a). Ficou evidenciado que o ensaio ENF, devido a ser um ensaio normalizado, por apresentar um setup mais simples e por apresentar uma maior disponibilidade de métodos para a determinação do valor de GIIc, é o mais recomendado. Conclui-se assim que o ensaio 4-ENF, embora sendo uma alternativa ao ensaio ENF, tem aplicação mais limitada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A procura por alternativas ao atual paradigma energético, que se caracteriza por uma predominância indiscutível das fontes combustíveis fósseis, é o motivo primário desta investigação. A energia emitida pelo Sol que chega à Terra diariamente ultrapassa em várias ordens de grandeza a energia que a nossa sociedade atual necessita. O efeito chaminé é uma das formas de aproveitar essa energia. Este efeito tem origem no diferencial de temperaturas existente entre o interior e o exterior de uma chaminé, que provoca um gradiente nas massas volúmicas do fluido entre o interior e o exterior da chaminé, induzindo assim um fluxo de ar. Esta diferença de temperaturas radica na exposição da face exterior da chaminé à radiação solar. No sistema que nos propomos estudar, o ar entra na chaminé por pequenos orifícios situados na sua base, e, ao tomar contacto com as paredes internas da chaminé, aquece desde a temperatura ambiente, Ta, até à temperatura interna, Ti . Este aumento de temperatura torna o ar dentro da chaminé mais “leve” em comparação com o ar mais frio do exterior levando-o a ascender ao longo do interior da chaminé. Este escoamento contém energia cinética que pode, por exemplo, ser transformada em energia elétrica por intermédio de turbinas. A eficiência de conversão da energia será tanto maior quanto menor for a velocidade do ar a jusante da turbina. Esta tecnologia poderá ser instalada de forma descentralizada, como acontece com as atuais centrais concentradoras solares térmicas e fotovoltaicas localizadas na periferia de grandes cidades ou, alternativamente, poderá ser inserida no próprio tecido urbanístico. A investigação demonstra que as dimensões da chaminé, a irradiação e a temperatura do ar são os fatores com maior impacto na potência hidráulica gerada.