32 resultados para Arquitectura baseada em modelos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho centra-se no desenvolvimento e aplicação de sensores de aceleração ópticos, baseados em redes de Bragg gravadas em fibras ópticas, para monitorização da integridade estrutural de estruturas de engenharia civil. Foram implementados dois acelerómetros uniaxiais e um acelerómetro biaxial. Recorreu-se a uma ferramenta de simulação baseada no método dos elementos finitos que permitiu optimizar, sem custos de produção, as características dos sensores, nomeadamente a sua frequência de ressonância. A caracterização dos sensores foi realizada em ambiente laboratorial e a sua resposta comparada com os resultados de simulação, de modo a validar os modelos numéricos. A aplicabilidade e demonstração de conceito foram realizadas na monitorização de estruturas com testes de campo. Foi monitorizado um teste destrutivo de uma parede de adobe, construída à escala real no Departamento de Engenharia Civil da Universidade de Aveiro, onde foram utilizados sensores estáticos e dinâmicos baseados em redes de Bragg gravadas em fibra óptica. Foram realizadas medidas dinâmicas na ponte pedonal do Campus Universitário da Universidade de Aveiro, onde se compararam os resultados obtidos com os sensores ópticos com resultados de sensores electrónicos comerciais. O acelerómetro biaxial foi testado na monitorização de estruturas esbeltas, nomeadamente na monitorização de duas torres de telecomunicações móveis, onde se demonstrou a possibilidade da utilização de sensores ópticos na caracterização dinâmica deste tipo de estruturas. Outro tipo de estruturas de engenharia civil onde foi demonstrada a aplicabilidade dos sensores ópticos desenvolvidos na monitorização estrutural foram os reservatórios de água elevados. Foi realizada a monitorização dinâmica de um exemplo deste tipo de estruturas, localizado no Campus Universitário da Universidade de Aveiro. A monitorização foi realizada recorrendo ao sensor biaxial desenvolvido e a um sismógrafo, ficando o sensor óptico instalado na estrutura de modo a permitir futuras leituras e assim a monitorização periódica da estrutura. Foi ainda desenvolvido um sensor de humidade relativa do ar, com um material sol-gel, que permitiu registar o nível de humidade relativa no interior de blocos de betão, durante um ano. Este sensor pode ser incluído numa rede de sensores multiplexados, na caracterização e monitorização da integridade estrutural de certas estruturas de engenharia civil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve por objetivos a identificação de uma estratégia e o desenvolvimento de um modelo que permita às operadoras de telecomunicações a sua sustentabilidade, bem como a identificação de caminhos para a adaptação a uma realidade sempre em mudança como é a da indústria das telecomunicações. Numa primeira parte do trabalho elaborou-se uma revisão de literatura do atual estado da arte das principais estratégias relevantes e com aplicação à indústria de telecomunicações. A pesquisa realizada investigou a estrutura atual da indústria de telecomunicações e o estado da competitividade das operadoras de telecomunicações. Dos resultados desta foi possível constatar uma evolução constante da tecnologia e dos modelos de negócio neste ecossistema, assim como a presença de uma pressão concorrencial significativa exercida sobre as operadoras, quer por parte das empresas já existentes no mercado quer por parte das emergentes. As operadoras têm de transformar o seu modelo de rede e de negócios para se adaptarem às mudanças e às tendências da indústria e do mercado. Com base na revisão de literatura, elegeu-se a metodologia baseada num inquérito de pesquisa empírica para aferir o estado da indústria e derivar as estratégias possíveis. Este inquérito foi efetuado a especialistas da área de telecomunicações de diferentes subsectores e países para abordar todos os elementos estratégicos do modelo de negócio futuro. Os resultados da pesquisa revelaram que as empresas que operam no mercado da Internet (Over The Top - OTT) representam a maior ameaça sobre o futuro dos operadores de telecomunicações. Os operadores só vão conseguir responder através da modernização de sua rede, melhorando a qualidade, reduzindo o custo global, e investindo em produtos inovadores e diferenciados e em serviços. Os resultados do inquérito revelam-se de acordo com os pressupostos da Blue Ocean Strategy. A aplicabilidade da Blue Ocean Strategy foi aprofundada permitindo concluir que o valor inovador obtido simultaneamente através da redução de custos e da diferenciação permitem aumentar as vantagens dos operadores existentes em termos das infra-estruturas físicas detidas e das relações estabelecidas com os clientes. O caso particular da fibra óptica até casa (FTTH) foi considerado como aplicação da Blue Ocean Strategy a uma nova tecnologia que as operadoras podem implementar para criar novas soluções e abrir segmentos de mercado inexplorados. Os resultados do inquérito e da investigação realizada à aplicação da Blue Ocean Strategy foram combinados para propor um novo modelo de negócio para as operadoras de telecomunicações que lhes permite, não só responder aos desafios existentes, mas, também, ter uma melhor posição competitiva no futuro. Foi, ainda, realizado um estudo de caso que destacou como a Verizon Communications foi capaz de transformar a sua rede e o modelo de negócio em resposta ao aumento da pressão competitiva. Através do valor da inovação transferida aos seus clientes, a Verizon foi capaz de aumentar significativamente as suas receitas e satisfação do cliente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A formação em enfermagem tem acompanhado a evolução sociocultural e científico-tecnológica procurando dar resposta às exigências dos utentes e, sobretudo, à complexidade e à imprevisibilidade dos contextos de prestação de cuidados. Segundo os novos paradigmas de formação, pretende-se que os alunos desenvolvam competências que lhes permitam “agir em situação”. Neste estudo procurámos compreender de que forma os alunos desenvolvem as suas competências em contextos de ensino clínico e quais os factores que, à luz da perspectiva bioecológica de desenvolvimento humano (Bronfenbrenner e Morris, 1998) e do seu modelo PPCT (Pessoa, Processo, Contexto e Tempo), se constituem como facilitadores ou inibidores desse desenvolvimento. Optámos por uma metodologia predominantemente qualitativa, através de um estudo de caso, referente ao 2º Curso de Licenciatura em Enfermagem da Escola Superior de Saúde da Universidade de Aveiro (2002-2003 a 2005- 2006). Para além da análise documental para contextualização do ensino clínico no currículo do curso, foram recolhidas narrativas dos alunos e supervisores relativas às suas vivências em ensino clínico durante todo o percurso formativo. Os resultados da análise de conteúdo das narrativas, de natureza qualitativa, foram triangulados com as classificações dos alunos nas grelhas de avaliação de competências e respectivos relatórios e procuraram responder à primeira questão de investigação que visava analisar o desenvolvimento de competências e as perspectivas dos actores envolvidos nesse processo. A resposta à segunda questão, que incidia sobre os factores de desenvolvimento à luz do modelo PPCT, foi baseada essencialmente na análise das narrativas. Os resultados obtidos permitem-nos concluir que o desenvolvimento de competências ocorre de forma integradora, combinando sinergeticamente diferentes dimensões (cognitiva, atitudinal, comunicacional e técnica) ao longo dos ensinos clínicos, num processo dinâmico, dialéctico e progressivo. E ainda que, à luz do modelo PPCT, sobressaem determinados factores influenciadores do desenvolvimento de competências. Assim, relativamente à Pessoa, emergem as características pessoais, os papéis desempenhados, a interpessoalidade, o contacto com a morte e com situações de sofrimento, sendo também significativa a emergência de uma componente afectivo-emocional. Quanto ao Processo, (que assume especial relevância), destacam-se as actividades e os processos proximais, as estratégias supervisivas, as dificuldades sentidas pelos supervisores, de entre as quais sobressai a falta de preparação para a tarefa. A análise dos Contextos revela que, no microsistema, o destaque vai para as especificidades de cada contexto e a atmosfera envolvente enquanto que, no mesosistema, a participação multicontextual e o conhecimento intercontextual se manifestam como relevantes. No exosistema, salienta-se a importância do relacionamento interinstitucional e dos modelos de parceria e, ao nível macrosistémico, emergem de forma subtil, indícios da influência das políticas de gestão hospitalar e da formação assim como da matriz conceptual de enfermagem. No que se refere ao Tempo, a importância da continuidade dos processos proximais (microtempo) e a periodicidade dos ensinos clínicos (mesotempo) mereceram referências significativas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O propósito deste trabalho é identificar no âmbito da Estratégia como se dá a quantificação da importância estratégica de um recurso, uma solução ou uma organização sob o pronto de vista do cliente, ou seja, do ponto de vista de quem tem uma carência de algo. A motivação para seu desenvolvimento decorreu da constatação de uma crescente banalização dos termos relacionados com a Estratégia, principalmente após os trabalhos de Porter. Esse fenômeno banalizou, por exemplo, a utilização do termo importância estratégica pois tudo ou quase tudo passou a ser qualificado como sendo estrategicamente importante. Outro termo também banalizado foi o valor e seus derivados, como: criar valor, agregar valor, transferir valor etc. A banalização é tamanha que não é difícil encontrar iletrados tratando desses termos como se dominassem seu significado. A análise bibliográfica dos referidos termos a partir da visão de vários autores acabou por conduzir à “desconstrução” de conceitos, principalmente dos que representam um esteio para a visão Porteriana. Entre eles, sobressai o valor, sobre o qual o trabalho faz uma análise do seu significado segundo algumas áreas do conhecimento, como Filosofia, Economia, Qualidade, Estratégia e Marketing. Através desse processo, foi possível constatar que as teorias que embasam as perspectivas de análise da origem da vantagem competitiva apresentam visões estáticas e parciais do ambiente competitivo. Foi também possível verificar que as definições de diversos autores sobre Estratégia não são tão fiéis às teorias como seria de se esperar, pois estas muitas vezes são inconclusivas e parecem “navegar” entre elas. Tais inconsistências evidenciam a necessidade de uma nova proposta teórica que colmate as lacunas das atuais. Daí que este trabalho propõe o conceito de Contributo, em substituição ao valor, e no Sistema de Criação de Contributos, em substituição à cadeia de viii valor, dando origem a uma nova visão estruturada da organização voltada para os macroatributos que colmatam as carências dos clientes. Essa nova perspectiva de obtenção de vantagem competitiva, denominada Gestão Baseada no Contributo, é integradora pois considera sob uma perspectiva dinâmica, não só os fatores exógenos à organização (os mercados) como também aos endógenos (os recursos). Além disso, permite a quantificação da importância estratégica, o que até então não era possível de ser feito na forma de pontuação (absoluta) e na forma de percentual (relativa ao Cliente).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As tecnologias de informação e comunicação na área da saúde não são só um instrumento para a boa gestão de informação, mas antes um fator estratégico para uma prestação de cuidados mais eficiente e segura. As tecnologias de informação são um pilar para que os sistemas de saúde evoluam em direção a um modelo centrado no cidadão, no qual um conjunto abrangente de informação do doente deve estar automaticamente disponível para as equipas que lhe prestam cuidados, independentemente de onde foi gerada (local geográfico ou sistema). Este tipo de utilização segura e agregada da informação clínica é posta em causa pela fragmentação generalizada das implementações de sistemas de informação em saúde. Várias aproximações têm sido propostas para colmatar as limitações decorrentes das chamadas “ilhas de informação” na saúde, desde a centralização total (um sistema único), à utilização de redes descentralizadas de troca de mensagens clínicas. Neste trabalho, propomos a utilização de uma camada de unificação baseada em serviços, através da federação de fontes de informação heterogéneas. Este agregador de informação clínica fornece a base necessária para desenvolver aplicações com uma lógica regional, que demostrámos com a implementação de um sistema de registo de saúde eletrónico virtual. Ao contrário dos métodos baseados em mensagens clínicas ponto-a-ponto, populares na integração de sistemas em saúde, desenvolvemos um middleware segundo os padrões de arquitetura J2EE, no qual a informação federada é expressa como um modelo de objetos, acessível através de interfaces de programação. A arquitetura proposta foi instanciada na Rede Telemática de Saúde, uma plataforma instalada na região de Aveiro que liga oito instituições parceiras (dois hospitais e seis centros de saúde), cobrindo ~350.000 cidadãos, utilizada por ~350 profissionais registados e que permite acesso a mais de 19.000.000 de episódios. Para além da plataforma colaborativa regional para a saúde (RTSys), introduzimos uma segunda linha de investigação, procurando fazer a ponte entre as redes para a prestação de cuidados e as redes para a computação científica. Neste segundo cenário, propomos a utilização dos modelos de computação Grid para viabilizar a utilização e integração massiva de informação biomédica. A arquitetura proposta (não implementada) permite o acesso a infraestruturas de e-Ciência existentes para criar repositórios de informação clínica para aplicações em saúde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A linha de investigação deste estudo é a ‘articulação da Investigação em Didáctica das Ciências e Práticas de Ensino dos Professores de Ciências’. O seu enquadramento teórico e metodológico inicial assentou nos estudos das áreas ‘Relações entre Investigação e as Práticas’ e ‘Avaliação da Formação Pós-Graduada – vertente impacte/articulação’. Inicialmente, fez-se uma análise histórico-epistemológica da Didáctica desde a sua génese até aos dias de hoje, para se compreender quer as raízes do gap entre académicos e práticos em geral, quer a crescente necessidade de articulação. Posteriormente, avançou-se para a primeira área, partindo da polémica despoletada por Hargreaves, ao defender que o ensino deveria ser uma profissão baseada na investigação. Em seguida, partiu-se de uma análise mais geral sobre a Investigação e as Práticas no contexto educacional em vários países antes se centrar especificamente no contexto da Didáctica das Ciências (impacte da IDC nas Práticas e constrangimentos na articulação). Analisou-se também brevemente as relações entre a IDC e Práticas no contexto da Formação de Professores, e não a área da Formação de Professores, para mantermos sempre o foco nas questões inerentes à articulação. Culminou-se na análise das culturas e epistemologias da acção e da investigação, com especial destaque para o conceito de professorinvestigador na actualidade e para a descrição das barreiras epistemológicas e ontológicas. Concluiu-se que as comunidades da investigação e da acção utilizavam o conceito ‘articulação’ indiscriminadamente como sinónimo de interacções, contacto, aproximação, impacte, etc., o que acabou esvaziando-o do seu verdadeiro significado. No que diz respeito à segunda área, a sua análise partiu da descrição da evolução de dez anos (1997-2007) de estudos sobre a Avaliação do Impacte dos CM nas práticas por ser considerada uma forma eficaz de articular as dimensões da Didáctica em direcção a um novo olhar sobre o conceito ‘articulação’. Além disso, apontou a dificuldade de se avaliar o impacte ao nível macro, por um lado, por não se tratar de uma prática investigativa institucionalizada no estatuto da carreira dos professores dos EB e ES e, por outro, por ainda colidir com diferentes concepções da natureza das investigações realizadas por Professores encontradas em ambas as comunidades, entendida ora como processo cognitivo (para o desenvolvimento profissional dos professores), ora como prática social (para construção de conhecimento no campo da Didáctica). Foram compiladas ainda as sugestões para se potenciar o impacte da IDC nas Práticas e/ou a articulação entre a IDC-Práticas em contexto formativo de diversos estudos avaliativos. Finalizou-se a análise chamando a atenção para cinco aspectos que ainda carecem de maior aprofundamento nesta área. Este longo enquadramento evidenciou a complexidade da problemática ‘articulação’ decorrente da interdependência das várias dimensões (epistemológica, política, ontológica, psicológica, ética, entre outras). Por exemplo, a ausência de consenso sobre critérios para a avaliação da qualidade da investigação produzida por professores (dimensões política e epistemológica) acaba, por vezes, por não conferir legitimidade às mesmas e por influenciar a legitimação pela comunidade académica, o que resulta na necessidade de diferenciação dos contributos e no maior afastamento entre as comunidades (dimensão ontológica), entre outros. Assim, optou-se por iniciar a análise do fenómeno ‘articulação entre IDCPráticas’ através dos primeiros modelos de articulação investigação-ensino, os quais visavam, contudo, fundamentalmente o impacte da IDC nas Práticas de Ensino das Ciências. Posteriormente, foram apresentadas as potencialidades da Avaliação ↔ Feedback, TIC e Colaboração (estratégias/métodos) para potenciar a articulação entre Investigação- Práticas. No que diz respeito à investigação empírica, realizou-se um estudo de caso descritivo e explorativo de natureza mista. O caso único, crítico e instrumental foi o fenómeno “articulação entre a IDC-Práticas na Formação Didáctica Pós- Graduada” no contexto da unidade curricular ‘Metodologia do Ensino da Física’ (MEF) do Curso de Mestrado em Ensino de Física. A técnica de análise geral utilizada foi a “descrição do caso” pelo facto de não se ter um referencial teórico especificamente sobre o caso. O caso contemplou três unidades de análise, a saber: Caracterização dos Professores-Formandos; Funcionamento da Unidade Curricular e Dinâmica dos currículos dos módulos articuladores. Estas unidades de análises permitiram evidenciar de que forma as características e/ou alterações implementadas na disciplina MEF contribuíram (ou podem contribuir) para a articulação da IDC-Práticas e descrever as dinâmicas do currículo (intencional – negociado – acção), evidenciando em que medida promoveram (ou inibiram) a articulação IDC – práticas. O estudo de caso aqui descrito revelou, ainda, a existência de dois níveis de articulação entre a Investigação e as Práticas no contexto formativo. O primeiro nível foi a articulação entre a Investigação sobre o Ensino Superior/Formação de Professores de Ciências (patente nas estratégias/métodos utilizados na disciplina) e a prática formativa dos IF no contexto da disciplina. O segundo nível centrou-se na articulação entre a Investigação sobre o Ensino não-Superior/Didáctica das Ciências e as práticas de Ensino das Ciências, base orientadora do currículo da disciplina aqui analisada, concretizado nos dois módulos articuladores descritos. Destacam-se algumas dimensões de análise descritas na presente investigação empírica, a saber: Utilização das TIC; Avaliação do Ensino baseada no feedback dos alunos; Avaliação Formativa das Aprendizagens e feedback; Trabalho de grupo realizado nos módulos articuladores; Currículo centrado na IDC; Currículo centrado na articulação da IDC-Práticas de Ensino das Ciências; Currículo centrado nas Práticas de Ensino das Ciências; Currículo centrado na articulação da Investigação-Práticas formativas e Currículo centrado nas Políticas Educativas. Relativamente a dinâmica dos currículos (intencional - negociado - acção) dos dois módulos articuladores, foram definidos quatro construtos (objectos de ensino, objectos de aprendizagem, objectivos de ensino e objectivos de aprendizagem) que culminaram na discussão de vários aspectos a serem considerados nos próximos cursos como, por exemplo: 1) Importância de o contrato didáctico prever a inclusão de objectos de aprendizagem; 2) Incompatibilidade do objectivo de aprendizagem ‘compreender a importância da IDC e a sua relevância para as práticas lectivas em contextos específicos’ num quadro formativo articulador; e 3) Importância de os cursos de formação de professores explicitarem quais ferramentas investigativas são necessárias à produção autónoma de conhecimento no contexto escolar e académico (mesmo que não sejam mobilizadas), de forma a que os professores possam delinear previamente planos individuais de formação/investigação. O estudo termina com a apropriação do modelo de articulação entre a Investigação Educacional e Práticas de McIntyre (2005) ao contexto da Didáctica das Ciências evidenciando uma relação dialógica com a investigação empírica. Apesar de este modelo priorizar a dimensão epistemológica (que aceita o gap pela impossibilidade epistemológica do seu total desaparecimento), na sua apropriação foi considerada a influência das outras dimensões. Esta apropriação assentou, portanto, numa visão moderada de articulação e na complexidade inerente à interdependência das dimensões. Foram propostos três caminhos epistemológicos complementares para a articulação entre a IDC-Práticas: 1º) Interacções entre Didáctica Investigativa – Didáctica Profissional; 2º) Utilização de estratégias na IDC especialmente desenhadas para informar as práticas de ensino; e 3º) Realização de IDC pela escola. Em cada um destes caminhos procurou-se enquadrar algumas sugestões e iniciativas já levadas a cabo para potenciar o impacte e/ou articulação e que se encontravam referenciadas na literatura em geral e no contexto português em particular. O primeiro caminho (composto por cinco etapas) evidenciou-se como aquele que leva a maior vantagem pelas inúmeras intervenções possíveis. A investigação empírica aqui apresentada enquadrou-se inclusivamente neste primeiro caminho pelo facto de ter sido uma iniciativa com a intencionalidade explícita de articular a Didáctica Investigativa e Profissional e por ter sido realizada no contexto da Formação Pós-Graduada (cenário considerado privilegiado para a promoção de interacções). Esta iniciativa foi realizada exclusivamente no âmbito curricular da Formação Pós-Graduada (Didáctica Curricular) e procurou articular as dimensões epistemológicas da Didáctica através da utilização de ‘mecanismos potencialmente articuladores’ (Avaliação - feedback, TIC e Colaboração). Foram descritas as quatro etapas deste primeiro caminho percorridas empiricamente com variações no grau de concretização, com excepção da quinta etapa ‘Investigação sobre a prática de ensino com generalização situada’ porque a vertente dissertativa do respectivo curso não fez parte do corpus. Assim, a articulação ocorreu fundamentalmente no nível epistemológico (currículo da disciplina). No que diz respeito ao 2º caminho, é aquele em que a comunidade académica mais tem investido, quer pelas críticas voltadas especificamente para a investigação, quer pelo sucesso na potenciação do impacte nas propostas até agora implementadas. Deve ser utilizado de forma complementar ao 1º, envolvendo, de preferência, os Professores que percorrem frequentemente o 1º caminho na sua prática diária. Esta condição justifica-se pela necessidade de se integrar legitimamente os professores nas equipas de investigação, aumentando concomitantemente a contribuição das Práticas para a construção de conhecimento no campo educacional. Finalmente, o 3º caminho é aquele que ainda não pode ser concretizado porque, para as Escolas serem diferentes das actuais na dimensão epistemológica (tornando-se produtoras de conhecimento didáctico), seriam necessárias medidas estruturais e articuladas nas várias dimensões anteriormente referidas. Entretanto, foram apontadas algumas soluções como, por exemplo, a utilização de investigações de generalização situada nas Escolas e a ligação das Escolas em redes. Estas investigações locais não substituiriam, mas mobilizariam a IDC produzida nas Universidades (centradas na construção do campo Didáctica das Ciências). Este caminho visionário culmina por um lado, com uma análise prospectiva assente na relação de complementaridade entre as evidências científicas e experienciais porque uma prática sem suporte investigativo é imprudente e uma investigação sem suporte experiencial é imatura. Por outro com uma constatação tardia (deveras reconfortante) que os estudos centrados na relação entre a Investigação e Práticas são estudos voltados para a Formação de Investigadores-Seniores por exigirem uma meta-reflexão da prática investigativa e do processo investigativo. As implicações do estudo são: (i) futuras iniciativas de articulação entre IDCPráticas; (ii) implementar e avaliar as sugestões advindas em novos contextos formativos; e (iii) na Educação a distância na área da Didáctica e Formação Didáctica de Professores. Assume-se a limitação estrutural da investigação resultante da alteração do projecto inicial que o restringiu a uma única etapa. Faz-se ainda uma reflexão do processo formativo-investigativo mediante a descrição dos constrangimentos de natureza interna e externa. Explicitam-se as limitações de carácter geral e específico e algumas tentativas de minimização dos respectivos efeitos no estudo. Finaliza-se o estudo com algumas sugestões de trabalhos futuros, a saber: (i) Continuidade dos estudos centrados na articulação entre IDC-Práticas; (ii) Continuidade dos estudos de Avaliação da Formação Pós-Graduada em termos de eficiência, eficácia, impacte e articulação; (iii) Análise da Epistemologia da Prática Docente em comunidades de práticas escolares; (iv) Articulação entre a Investigação sobre a Formação de Professores e as práticas dos formadores e futuros-formadores; e (v) Constituição de “Scholarship of teaching” na Formação de Professores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As ciências são um elemento central da cultura contemporânea pelo que a educação científica tem de ser vista como um direito essencial dos cidadãos. A qualidade do ensino das ciências na escola torna-se, portanto, um especial foco de interesse, científico, político e social, ao nível local, nacional, e global. A investigação em educação em ciências tem produzido conhecimentos que permitem compreender os problemas e fundamentar decisões conducentes a um ensino de ciências ajustado aos desafios atuais. Por outro lado, várias organizações internacionais (UE, OCDE e UNESCO) também têm produzido documentos que visam regular as políticas globais de ensino de ciências, assumindo que a educação científica dos cidadãos é uma condição para a prosperidade económica e social de qualquer estado. Assim, atualmente, existe um acervo documental extenso e diverso relativo ao ensino de ciências, pelo que se impõe um exercício de análise e síntese que identifique quais as orientações-chave que devem ser consideradas. O ensino de nível secundário (ISCE2 e ISCE3), sendo uma etapa em que os jovens fazem escolhas pessoais e vocacionais importantes, merece particular atenção, pois diversos estudos revelam que regista níveis preocupantes de abandono e de desinteresse pelas áreas científicas e tecnológicas. Sendo as práticas dos professores um dos principais fatores de inovação e mudança importa sistematizar os conhecimentos científicos que explicam a sua complexidade e podem orientar a promoção da sua qualidade. O estudo que se apresenta situa-se na confluência de todos estes interesses e visou duas finalidades: delimitar um conceito unificador que permita estudar e desenvolver a qualidade das práticas dos professores de ciências de nível secundário; desenvolver um instrumento de inquérito que operacionalize esse conceito, numa perspetiva de investigação, formação e supervisão de práticas de ensino de ciências. O plano da investigação decorreu em duas fases. Na fase I foi delimitado o conceito perfil de ensino do professor de ciências (PEPC); este estrutura-se em três dimensões – didática, epistemológica e psicológica – cujos referenciais teórico-empíricos decorreram de revisão sistemática de literatura e de abordagem empírica de natureza exploratória e qualitativa, baseada em entrevistas a professores de ciências. Na fase II foi construído e validado o questionário do perfil de ensino do professor de ciências (QPEPC); este contém itens empiricamente situados, construídos a partir do discurso dos professores entrevistados na fase I e seguidamente validados. A validação de QPEPC envolveu dois processos de inquérito por questionário e uma metodologia mista de investigação (análise de conteúdo e análise estatística de dados): a primeira validação contou com um painel internacional de 12 especialistas em didática de ciências; a segunda validação envolveu 184 professores de ciências portugueses. Concluindo-se que QPEPC avalia duas dimensões de PEPC, construíram-se índices e modelos gráficos para facilitar a interpretação dos dados recolhidos. Analisaram-se limitações e potencialidades heurísticas de PEPC e QPEPC, enquanto produtos da investigação, perspetivando o seu uso em contextos diversos, nomeadamente futuras investigações e cenários de formação, reflexão e supervisão de professores de ciências.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the environment humans and biota are generally exposed to chemical mixtures rather than individual chemicals. Therefore, when assessing the environmental risk of chemicals, it is important to consider chemical mixtures and their possible interactions. The main objective of this work focused on the environmental risk assessment of pesticides found in the water of the Alqueva reservoir and their binary combinations. In this aquatic ecosystem several pesticides were above of the environmental quality standards. But in addition, there were several sampling points of the reservoir where ecotoxicity was observed despite the presence of these contaminants at low concentrations. Here, a component-based approach was used to assess the effects of the pesticide mixtures. The effects of the binary combinations of four herbicides, atrazine (ATR), terbuthylazine (TER), simazine (SIM) and metolachlor (MET), on the growth rate of the microalgae Pseudokirchneriella subcapitata and the effects of the binary combinations of the s-triazine herbicides ATR and TER and the insecticide chlorpyrifos (CPF) on the swimming behaviour and acetylcholinesterase (AChE) activity of the zebrafish Danio rerio were assessed using the two reference models of concentration addition (CA) and independent action (IA). Moreover, the combined effects of the herbicides (ATR, TER and MET) and the insecticide CPF were also tested on the swimming behaviour and AChE activity of the aquatic midge Chironomus riparius after the cholinesterases characterization. In this risk characterization, the calculated risk quotients for the herbicides ATR, TER, SIM and MET were higher than 1, meaning that these herbicides present a high risk for the Alqueva ecosystem. As expected, the microalgae P. subcapitata was the most sensitive species to the herbicides. However, despite these herbicides pose no or low risk to other aquatic organisms tested in this study, with EC50 values much higher than the concentrations found in this aquatic ecosystem, they are able to increase the toxic effects of CPF when they are tested in binary mixtures. Moreover, the risk quotients of mixtures of these herbicides present simultaneously in three different locations of the reservoir were also higher than 1, so this confirms the fact that these herbicides when present in mixtures, present a greater risk for this ecosystem than the expected considering each single chemical by its own.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the modern society, new devices, applications and technologies, with sophisticated capabilities, are converging in the same network infrastructure. Users are also increasingly demanding in personal preferences and expectations, desiring Internet connectivity anytime and everywhere. These aspects have triggered many research efforts, since the current Internet is reaching a breaking point trying to provide enough flexibility for users and profits for operators, while dealing with the complex requirements raised by the recent evolution. Fully aligned with the future Internet research, many solutions have been proposed to enhance the current Internet-based architectures and protocols, in order to become context-aware, that is, to be dynamically adapted to the change of the information characterizing any network entity. In this sense, the presented Thesis proposes a new architecture that allows to create several networks with different characteristics according to their context, on the top of a single Wireless Mesh Network (WMN), which infrastructure and protocols are very flexible and self-adaptable. More specifically, this Thesis models the context of users, which can span from their security, cost and mobility preferences, devices’ capabilities or services’ quality requirements, in order to turn a WMN into a set of logical networks. Each logical network is configured to meet a set of user context needs (for instance, support of high mobility and low security). To implement this user-centric architecture, this Thesis uses the network virtualization, which has often been advocated as a mean to deploy independent network architectures and services towards the future Internet, while allowing a dynamic resource management. This way, network virtualization can allow a flexible and programmable configuration of a WMN, in order to be shared by multiple logical networks (or virtual networks - VNs). Moreover, the high level of isolation introduced by network virtualization can be used to differentiate the protocols and mechanisms of each context-aware VN. This architecture raises several challenges to control and manage the VNs on-demand, in response to user and WMN dynamics. In this context, we target the mechanisms to: (i) discover and select the VN to assign to an user; (ii) create, adapt and remove the VN topologies and routes. We also explore how the rate of variation of the user context requirements can be considered to improve the performance and reduce the complexity of the VN control and management. Finally, due to the scalability limitations of centralized control solutions, we propose a mechanism to distribute the control functionalities along the architectural entities, which can cooperate to control and manage the VNs in a distributed way.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis addresses the problem of word learning in computational agents. The motivation behind this work lies in the need to support language-based communication between service robots and their human users, as well as grounded reasoning using symbols relevant for the assigned tasks. The research focuses on the problem of grounding human vocabulary in robotic agent’s sensori-motor perception. Words have to be grounded in bodily experiences, which emphasizes the role of appropriate embodiments. On the other hand, language is a cultural product created and acquired through social interactions. This emphasizes the role of society as a source of linguistic input. Taking these aspects into account, an experimental scenario is set up where a human instructor teaches a robotic agent the names of the objects present in a visually shared environment. The agent grounds the names of these objects in visual perception. Word learning is an open-ended problem. Therefore, the learning architecture of the agent will have to be able to acquire words and categories in an openended manner. In this work, four learning architectures were designed that can be used by robotic agents for long-term and open-ended word and category acquisition. The learning methods used in these architectures are designed for incrementally scaling-up to larger sets of words and categories. A novel experimental evaluation methodology, that takes into account the openended nature of word learning, is proposed and applied. This methodology is based on the realization that a robot’s vocabulary will be limited by its discriminatory capacity which, in turn, depends on its sensors and perceptual capabilities. An extensive set of systematic experiments, in multiple experimental settings, was carried out to thoroughly evaluate the described learning approaches. The results indicate that all approaches were able to incrementally acquire new words and categories. Although some of the approaches could not scale-up to larger vocabularies, one approach was shown to learn up to 293 categories, with potential for learning many more.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho propõe-se a conceptualizar os modelos e a criar novas ferramentas para a espacialização da música electroacústica, bem como a explorar formas de integração deste parâmetro na composição musical. É proposta uma taxonomia da espacialização na música electroacústica, com base no levantamento de fontes realizado. O conjunto de aplicações informáticas concebido utiliza o conhecimento actual sobre a audição espacial, implementa duas propostas de desenvolvimento sobre as técnicas de espacialização e incorpora os modelos de espacialização conceptualizados. Por fim, as obras musicais compostas propõem e exploram formas para a utilização da espacialização enquanto elemento gerador do material musical na composição de música electroacústica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Urban soil quality may be severely affected by hydrophobic organic contaminants (HOCs), impairing environmental quality and human health. A comprehensive study was conducted in two contrasting Portuguese urban areas (Lisbon and Viseu) in order to assess the levels and potential risks of these contaminants, to identify sources and study their behaviour in soils. The concentrations of HOCs were related to the size of the city, with much higher contamination levels observed in Lisbon urban area. Source apportionment was performed by studying the HOCs profiles, their relationship with potentially toxic elements and general characteristics of soil using multivariate statistical methods. Lisbon seems to be affected by nearby sources (traffic, industry and incineration processes) whereas in Viseu the atmospheric transport may be playing an important role. In a first tier of risk assessment (RA) it was possible to identify polycyclic aromatic hydrocarbons (PAHs) in Lisbon soils as a potential hazard. The levels of PAHs in street dusts were further studied and allowed to clarify that traffic, tire and pavement debris can be an important source of PAHs to urban soils. Street dusts were also identified as being a potential concern regarding human and environmental health, especially if reaching the nearby aquatic bodies. Geostatistical tools were also used and their usefulness in a RA analysis and urban planning was discussed. In order to obtain a more realistic assessment of risks of HOCs to environment and human health it is important to evaluate their available fraction, which is also the most accessible for organisms. Therefore, a review of the processes involved on the availability of PAHs was performed and the outputs produced by the different chemical methods were evaluated. The suitability of chemical methods to predict bioavailability of PAHs in dissimilar naturally contaminated soils has not been demonstrated, being especially difficult for high molecular weight compounds. No clear relationship between chemical and biological availability was found in this work. Yet, in spite of the very high total concentrations found in some Lisbon soils, both the water soluble fraction and the body residues resulting from bioaccumulation assays were generally very low, which may be due to aging phenomena. It was observed that the percentage of soluble fraction of PAHs in soils was found to be different among compounds and mostly regulated by soil properties. Regarding bioaccumulation assays, although no significant relationship was found between soil properties and bioavailability, it was verified that biota-to-soil bioaccumulation factors were sample dependent rather than compound dependent. In conclusion, once the compounds of potential concern are targeted, then performing a chemical screening as a first tier can be a simple and effective approach to start a RA. However, reliable data is still required to improve the existing models for risk characterization.