116 resultados para Complexos rupestres de altitude
Resumo:
O fungo nematófago Pochonia chlamydosporia, estirpe PcMR, tem a capacidade de produzir clamidósporos em cultura líquida. Neste estudo quantificou-se o efeito da adição de hidratos de carbono (glucose, sacarose ou amido) ao meio basal de produção de clamidósporos (ALMA), e o efeito da substituição da lecitina no meio ALMA por outro lípido (ácidos gordos ou triglicéridos). Determinou-se as curvas de crescimento de clamidósporos e peso seco para o meio basal e meios ALMA + glucose, sendo medido o consumo de albumina, lecitina e glucose. Foram obtidas produções elevadas de clamidósporos (superior a 5X105 clamidósporos/ml) nos meios com 0 a 5g/L de glucose ou sacarose. A adição de maiores quantidades de hidratos de carbono ao meio ALMA leva à diminuição da produção de clamidósporos e a um aumento proporcional do peso seco. Ácidos gordos insaturados no meio ALMA permitem obter produções de clamidósporos superiores às obtidas com ácidos gordos saturados ou triglicéridos mas inferiores às obtidas com lecitina. No entanto, o peso seco final é menor quando se utiliza meio ALMA contendo ácidos gordos insaturados do que com quando se utilizam os restantes lípidos mais complexos estudados. O fungo desenvolve-se mais rapidamente nos meios com glucose, embora nesses meios a produção de clamidósporos se inicie mais tarde. Com elevadas quantidades de glucose no meio, o consumo de albumina é limitado, e a produção de clamidósporos é reduzida. Estes resultados mostram que os meios líquidos podem ser utilizados para a produção de elevadas quantidades de clamidósporos, permitem estabelecer alguns dos componentes mais importantes no processo de optimização industrial, e estabelecem a lecitina como o lípido mais importante na produção de clamidósporos.
Resumo:
O presente trabalho tem como objectivo contribuir para o estudo do desenvolvimento de um modelo matemático aplicado à digestão anaeróbia de resíduos sólidos, que incorpore os condicionamentos da geometria dos reactores e a sua influência na cinética do processo biológico. Nesse sentido, o trabalho propõe-se avaliar o comportamento cinético de três reactores, com o mesmo volume mas com diferentes relações tridimensionais, utilizando o mesmo substrato, e idênticos parâmetros ambientais e operacionais de funcionamento. Pretendeu-se estudar em que medida a relação do comprimento, largura e altura de um reactor pode interferir nas taxas de remoção de substrato, condicionando a respectiva difusão na biomassa e crescimento dos microrganismos. Considera-se que este aspecto é do maior interesse para o desenvolvimento de um modelo cinético, podendo minimizar desvios inerentes à própria modelação de processos biológicos complexos. A geometria do reactor, que se correlaciona com uma determinada relação tridimensional, pode constituir um parâmetro importante, que se designou por Kcig (Constante de Inibição Geométrica), dada a influência que poderá exercer na cinética do processo biológico. A sua avaliação, parametrização e consequente modelação, deverá facilitar a escolha da relação comprimento/largura/altura mais adequada, de forma a optimizar o funcionamento operacional do reactor. O plano experimental desenvolveu-se em duas fases, utilizando-se dois substratos com graus distintos de dificuldade de utilização pelos microrganismos, nomeadamente: Fase 1 (glucose), Fase 2 (FORSU e relva). Concluiu-se que a cinética do processo é influenciada pela relação entre as áreas de separação de biogás/biomassa (As) e de contacto biomassa/reactor (Ac), que interferem na geometria do reactor. Assim, através dos resultados das fases 1 e 2 pode observar-se que a variação da taxa de remoção de substrato se aproxima de uma função de saturação, pelo que se propõe uma adaptação do modelo de Monod, através de um formalismo que incorpora uma grandeza adimensional, Kcig, para reflectir o efeito da geometria do reactor. Verificou-se que a equação adoptada para Kcig se mostrou adequada, o que permitiu, através do modelo de Monod ajustado, estimar os valores de rx máx e Ks que se admite estarem mais próximos dos verdadeiros, embora se considere que apenas se pretende corrigi-los em função do efeito da geometria do reactor. Por outro lado, o estudo permitiu identificar um valor de Kcig para o reactor de 2,5 L, a partir do qual poderá não ser interessante a relação entre a taxa de remoção de substrato e a área de construção do reactor.
Resumo:
Os sistemas distribuídos de manufactura (SDM) possuem como principais características a capacidade de executarem processos de manufactura de forma distribuída em ambientes heterogéneos, em que os diversos estágios e parceiros envolvidos funcionam de forma autónoma. Dotados de uma boa capacidade de adaptação a mercados em constante mudança, são sis-temas complexos e dinâmicos, sendo difícil prever o seu desempenho sem abordagens adequadas, nomeadamente, recorrendo a métodos de simulação. No entanto os pacotes de simulação que existem actualmente, apesar de boa qualidade e bastante flexíveis, ainda se caracterizam por uma limitada capacidade para a simulação de SDM. Por outro lado, o desenvolvi-mento duma ferramenta de manufactura que combine a simulação ao nível local de processos de manufactura (por exemplo: com robôs e maquinas industriais) e a correspondente ao nível global e distribuído, revela-se significativamente complexo e oneroso. Ao invés de se desenvolver tal sistema, com este trabalho, pretende-se especificar um modelo e respectiva ferramenta que permita a simulação de SDM, recorrendo a produtos comerciais já existentes, mediante a definição duma estratégia de interoperabilidade entre as ferramentas. A simulação em simultâneo, de forma agregada e em tempo real dos diversos níveis estratégicos e locais de um SDM, permite assim uma melhor estimativa do seu desempenho futuro.
Resumo:
As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.
Resumo:
Bactérias eletroquimicamente ativas possuem a capacidade de transferir eletrões extracelularmente, durante a respiração celular. Esta característica tem sido atualmente explorada para aplicação na produção de eletricidade, tratamento de águas residuais, biorremediação e em diversas áreas da biotecnologia, onde a transferência eletrónica ocorre na presença de aceitadores insolúveis (tais como, óxidos metálicos e ânodos metálicos). Contudo, o número de espécies identificadas, isoladas e caracterizadas até à data é bastante reduzido. Os métodos atualmente disponíveis para deteção de bactérias eletroquimicamente ativas são morosos, dispendiosos e complexos de operar, tornando-se necessário o desenvolvimento de outros métodos mais rápidos, simples e menos dispendiosos que auxiliem na otimização das aplicações mencionadas. O objetivo principal deste trabalho foi o desenvolvimento de um sensor colorimétrico de papel utilizando um material eletrocrómico, trióxido de tungsténio, como camada ativa para a deteção destas bactérias. Para isso, foram definidos no papel poços delimitados por barreiras hidrofóbicas, através da impressão e difusão de uma camada de cera. As várias amostras de nanopartículas de WO3, sintetizadas por um método hidrotermal assistido por micro-ondas, foram depositadas nos poços por drop casting. As nanopartículas com estrutura cristalográfica hexagonal, impregnadas no sensor de papel, foram capazes de detetar com sucesso uma bactéria eletroquimicamente ativa, Geobacter sulfurreducens, desde uma fase de crescimento bastante inicial (Abs600 nm = 0,1, correspondente a 0,07 g/L com um rácio RGB de 1,10 ± 0,040) até à fase exponencial-tardia (Abs600 nm = 0,5, correspondente a 0,33 g/L com um rácio RGB de 1,33 ± 0,005), com P <0,0001. O sensor de papel e respetivo método de deteção colorimétrico desenvolvido neste trabalho, revelou ser sensível e específico à deteção destas bactérias, de uma forma rápida, simples e pouco dispendiosa.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
Com o crescente progresso tecnológico, surgem sistemas mais eficientes, mas também mais complexos e não-lineares. Isto torna-se mais evidente em sistemas Multi-Input Multi-Output (MIMO), devido a diferentes efeitos que uma entrada possa ter sobre diversas saídas. Para estes sistemas, a obtenção de modelos matemáticos que capturem, com precisão aceitável, a dinâmica do sistema, torna-se cada vez mais complexa e custosa. Sendo que muitos dos sistemas utilizados hoje em dia são MIMO, a diminuição na precisão dos modelos matemáticos é uma adversidade à eficiência dos sistemas de controlo. Isto deve-se a grande parte dos métodos de projeto de controladores terem como base o modelo do sistema. O trabalho realizado nesta dissertação pretende desenvolver uma estrutura de supervisão para sistemas MIMO, com base em controlo Unfalsified, ou Unfalsified Control (UC). Este consiste numa abordagem de controlo adaptativo, cujo processo de adaptação se traduz na seleção de um controlador, de entre um conjunto pré-determinado. Em cada momento é selecionado o controlador que mais se adequa ao objetivo de controlo pretendido. A utilização de UC representa uma possível solução para o problema apresentado, pois utiliza apenas dados experimentais recolhidos do funcionamento do processo. Assim, contorna a necessidade da existência de modelos do processo. Existem, no entanto, dificuldades associadas à comutação de controladores, pelo que este trabalho pretende também desenvolver uma estrutura de Bumpless Transfer (BT), de forma a reduzir estes efeitos. Finalmente, a utilização de dados experimentais implica que a aplicação de UC a um processo está apenas limitada ao ajuste dos parâmetros do sistema de supervisão, e à existência de um conjunto de controladores adequados.
Resumo:
RESUMO - A (não) adesão à terapêutica é um problema mundial que, para além de afetar diretamente a saúde dos indivíduos, afeta também os recursos económicos e sociais. Apesar da importância em aderir à terapêutica, largamente fundamentada na evidência científica, facto é que, em muitos casos, os doentes não o fazem. Assim, estudar as questões relacionadas com a adesão tem vindo a ganhar cada vez mais relevância e atualmente constitui um desafio para os sistemas de saúde, pois os mecanismos envolvidos no comportamento de adesão dos indivíduos são complexos. Deste modo, com este estudo pretendeu-se caracterizar uma amostra de indivíduos com diabetes mellitus tipo 2 e relacionar o seu nível de adesão à terapêutica medicamentosa com os fatores de não adesão. Este estudo foi desenvolvido no Agrupamento de Centros de Saúde (ACES) Almada e Seixal e nele participaram 151 diabéticos tipo 2. Para a recolha de dados utilizou-se o Questionário de Identificação de Fatores de Não Adesão adaptado de Cabral e Silva (2010) e a Medida de Adesão aos Tratamentos de Delgado e Lima (2001). Os resultados mostraram um perfil de participantes maioritariamente idosos, reformados, do género feminino, casados, com o ensino primário completo, rendimento mensal entre 301-1000 euros e tendencialmente aderentes à terapêutica medicamentosa. O (i) esquecimento, o (ii) preço da medicação, o (iii) número elevado de medicamentos para tomar de uma vez só, não perceber bem o que deve tomar e como e (v) adormecer antes da toma foram os fatores de não adesão relatados com mais frequência. Foram encontradas relações significativas entre o nível de adesão e o esquecimento, o preço da medicação o número elevado de medicamentos para tomar de uma vez só e adormecer antes da toma. Não encontrámos relações significativas entre o nível de adesão e os dados sociodemográficos, os fatores terapêuticos e o fator de não adesão “não perceber bem o que deve tomar e como”. No presente estudo são discutidos os resultados obtidos, consideradas algumas limitações e efetuadas propostas de investigações futuras.
Resumo:
A presente dissertação foi desenvolvida em colaboração com o Instituto de Biofísica e Engenharia Biomédica(IBEB/FCUL)
Resumo:
O estado Otomano representou um dos mais complexos sistemas políticos da história do Islão. O seu sistema burocrático e militar recorria ao recrutamento (devşirme) de não-Muçulmanos composto por crianças provenientes da Romélia para evitar que qualquer membro da sociedade Otomana interviesse na política. Sem raízes estabelecidas na sociedade Otomana a sua lealdade concentrava-se numa instituição: o Sultão. No século dezoito e dezanove o exotismo Otomano cativou muitos dos Europeus, o Sultão foi descrito como o centro da sociedade Otomana com um poder absoluto sobre todos os que a compunham. O poder do Sultão era absolutista, porém, o estado Otomano estava desenhado de uma forma em que a sua estrutura não podia ser alterada, pela sua matiz Islâmica e também para não enfraquecer as bases que mantinham a cúpula de poder. Através da metodologia de process-tracing o nosso estudo analisa a forma como o Sultão obteve e legitimou o seu poder assim como os actores que serviram de contrapeso ao seu poder. No século dezanove, particularmente, nenhum Sultão possuía um poder absoluto, a dificuldade que enfrentavam por parte da sociedade Otomana para realizar reformas mostra que não podiam agir só pela sua vontade. O nosso estudo tem como objectivo criticar Karl Marx e Max Weber, consideramos que simplificam o sistema de governação Otomano. Esperamos expor como se organizava este império como estrutura política e qual o poder do Sultão, considerando o “Círculo de Equidade” como o principal modelo para o seu poder.
Resumo:
Com o presente trabalho pretende-se formular, implementar e validar duas classes de elementos finitos não-convencionais para problemas elastoestáticos e elastodinâmicos (harmónicos e transitórios) envolvendo barras solicitadas por cargas axiais. O desempenho numérico dos elementos não convencionais é estudado para uma larga gama de situações de interesse prático e comparado com o dos elementos finitos conformes de deslocamento (convencionais). A resolução de problemas transitórios envolve a integração no tempo e no espaço das equações diferenciais governativas, bem como a imposição das respetivas condições iniciais e de fronteira. A metodologia de integração no tempo adotada neste trabalho é baseada no método de Newmark. A resolução de problemas estáticos e harmónicos não carece de integração no tempo, ou a mesma é feita de forma trivial. Concluída a discretização no tempo, a segunda fase da resolução envolve a integração no espaço de cada uma das equações discretizadas, nomeadamente através do método dos elementos finitos. Para esse efeito, apresentam-se as formulações relativas aos elementos finitos convencionais, híbridos e híbridos-Trefftz. As três formulações têm como ponto de partida a forma fraca da equação diferencial de Navier, que é imposta utilizando o método de Galerkin. A principal diferença entre os elementos convencionais e não-convencionais prende-se com a maneira como são impostas as condições de fronteira de Dirichlet e as condições de compatibilidade nas fronteiras interiores. Os elementos não convencionais são implementados numa plataforma computacional desenvolvida de raiz no ambiente Matlab. A implementação é feita de maneira a permitir uma definição muito geral e flexível da estrutura e das respetivas ações, bem como das discretizações no tempo e no espaço e das bases de aproximação, que podem ser diferentes para cada elemento finito. Por fim, efetuam-se testes numéricos com o objetivo de analisar os resultados obtidos com os elementos não convencionais e de os comparar com as respetivas soluções analíticas (caso existam), ou com os resultados obtidos utilizando elementos convencionais. É especialmente focada a convergência das soluções aproximadas sob refinamentos da malha (h), no espaço e no tempo, e das funções de aproximação (p), sendo que o uso simultâneo dos dois refinamentos parece conduzir mais rapidamente a soluções próximas da solução exata. Analisam-se também problemas complexos, envolvendo propagação de ondas de choque, com o fim de se efetuar uma comparação entre os elementos convencionais, disponíveis no programa comercial SAP2000, e os elementos não convencionais fornecidos pela plataforma computacional desenvolvida neste trabalho.
Resumo:
O intuito desta dissertação é investigar em que medida a Teoria Moderna do Portfólio pode ser aplicada à selecção de um portfólio de canais ou de tácticas de Marketing Digital, de modo a obter o melhor compromisso entre o retorno esperado do investimento e o respectivo risco. Anteriores aplicações da teoria do portfólio ao Marketing, enquanto meio de racionalizar a selecção do portfólio, concentraram-se no uso deste modelo em decisões relacionadas com portfólios de produtos, de clientes e segmentos de clientes, de formatos de retalho e de promoções de preço. Não se encontraram evidências de que a abordagem proposta neste texto tenha já sido tentada. A evolução tecnológica nas últimas duas décadas trouxe a adopção generalizada de smartphones e tablets e também a revolução da internet, originando a proliferação do e-mail, dos blogs e dos sites de redes sociais. Devido à infinidade de meios para chegar aos consumidores, os marketers enfrentam actualmente grandes desafios no planeamento e na definição das suas estratégias de Marketing. Em resposta, consultoras detêm ferramentas para a análise de portfólios de canais de Marketing que permitem às empresas e aos marketers, em particular, melhorar o desempenho da sua actividade e maximizar o rendimento da sua despesa de Marketing. Contudo, além de dispendiosas e estritamente analíticas, estas ferramentas são muito sofisticadas, baseando-se em algoritmos e raciocínios complexos que nem sempre são evidentes para os marketers, o que dificulta a sua compreensão e consequentemente a sua adopção. Sem uma ferramenta de análise, é frequente os marketers fundamentarem as suas decisões nos resultados das campanhas online anteriores, registados pelas Web Analytics, e na sua experiência profissional. Assim, crê-se que a Teoria Moderna do Portfólio, baseando-se em conceitos estatísticos simples, possa representar para os marketers uma ferramenta útil no apoio à selecção do conjunto de canais ou de tácticas de Marketing Digital que melhor se adequa aos interesses e aos objectivos estratégicos das organizações. A Teoria Moderna do Portfólio tem como principais vantagens a análise e selecção de portfólios com base na sua combinação de retorno esperado e risco de investimento (retorno ajustado ao risco), por oposição a considerar exclusivamente o retorno esperado, e a simplicidade estatística do modelo, por oposição aos softwares das consultoras. O presente estudo fundamentou-se na literatura existente acerca da Teoria Moderna do Portfólio, concebida em 1952 por Harry Markowitz, bem como no conceito de Sharpe Ratio, por William Sharpe, tendo-se revisto também conceitos genéricos de Marketing e Marketing Digital. Dado que a medição do retorno financeiro do investimento em Marketing – central ao estudo – não é tão linear quanto a medição dos retornos de activos financeiros, revelou-se necessário introduzir algumas alterações à teoria do portfólio original. Estas alterações tomaram em consideração as principais conclusões dos estudos anteriores sobre a aplicação do modelo a outras áreas. Para desenvolver o modelo proposto, utilizou-se o Microsoft Excel. Seguidamente, procedeu-se à sua prova de conceito através de uma abordagem empírica, utilizando dados de uma empresa portuguesa de Marketing Digital. Concluiu-se que é possível aplicar a Teoria Moderna do Portfólio à selecção de canais ou tácticas de Marketing Digital de uma empresa, com as devidas adaptações, para determinar as parcelas do orçamento de comunicação de uma organização a alocar a cada tipo de canal ou táctica.
Resumo:
No caminho da competitividade, a gestão das Organizações tornou-se cada vez mais complexa. Como observaremos ao longo do trabalho, a complexidade resulta da realidade interna das Organizações mas, acima de tudo, do ambiente organizacional que condiciona fortemente a realidade interna. Para responder às diferentes solicitações, requisitos e pressões concorrenciais a integração tem-se mostrado uma vantagem competitiva para as Organizações que nesta ferramenta têm apostado, obtendo melhores resultados de produtividade e de motivação dos recursos humanos. Paralelamente à continua integração de diferentes aspectos, as Organizações têm procurado concentrar-se no seu core business e passar para outsourcing as actividades de apoio à sua missão, visando “emagrecer” a Organização mas mantendo ou melhorando os rácios de eficácia e eficiência. Para tanto, há que actuar sobre a Estrutura Organizacional concebendo uma gestão integrada de todas as actividades de suporte, visando libertar recursos para o cumprimento da missão da Organização. O presente trabalho visa apresentar uma Estrutura Organizacional que, assentando na Logística Estratégica e considerando os princípios do Pensamento Magro, permitirá a integração dos processos de suporte e a clarificação dos processos da missão, logo da competitividade da Organização. A análise detalhada das diferentes estruturas organizacionais conhecidas e normalmente implementadas nas Organizações, permitiu perceber que estas estruturas precisam de evoluir por forma a permitirem uma melhor resposta aos ambientes organizacionais mais turbulentos e complexos. Como resultante conceptual do presente trabalho alcançámos a Estrutura Organizacional Lean (EOL) com vantagens potenciais significativas nomeadamente ao nível da redução dos desperdícios organizacionais e da agilidade organizacional, sendo possível esperar um melhor desempenho organizacional. Para o desenvolvimento do trabalho recorremos à Soft Systems Methodology (SSM), aplicando, de forma simulada, o modelo numa empresa referência no mercado e avaliando o desempenho estimado com a aplicação do modelo à realidade organizacional em questão. Os resultados obtidos podem ser considerados muito interessantes segundo as vertentes da Eficácia, Eficiência, Efectividade, Ética e Elegância (5E’s).
Resumo:
Os modelos de comportamento de solos que aplicam a teoria da mecânica dos solos dos estados críticos são uma importante base para a compreensão do comportamento dos solos e uma ferramenta que permite, de uma forma simples, ter em conta aspetos do comportamento que os mo-delos muito básicos não permitem. Neste trabalho compara-se, com recurso aos programas de cálculo geotécnico PLAXIS e CRISP, a utilização de dois modelos - um elástico-perfeitamente plástico (modelo Mohr-Coulomb) e outro baseado nos estados críticos (modelo Cam-Clay Modificado) - na determina-ção das pressões e dos impulsos de terras sobre estruturas de suporte rígidas. Comparam-se também os resultados numéricos com os obtidos com métodos analíticos. Exceto para casos mais complexos (utilizando simultaneamente solo sobreconsolidado e pa-ramento rugoso), os impulsos ativos e passivos obtidos com o modelo Cam-Clay Modificado são se-melhantes aos obtidos com o modelo Mohr-Coulomb e com os métodos analíticos, concluindo-se que o modelo avançado modela satisfatoriamente a rotura do solo. Este modelo apresenta inclusive aspetos interessantes, como o desenvolvimento, em alguns casos em que se utiliza solo sobreconsolidado, de uma resistência de pico, que se evidencia no aparecimento de um impulso de pico. No entanto, na utilização do modelo deve ter-se em atenção alguns aspetos, nomeadamente a forma como se obtém o seu parâmetro de resistência,
Resumo:
O processo ensino-aprendizagem das ciências naturais é desafiado para se adaptar às necessidades e estilo de vida atual dos alunos. Este desafio, para os docentes, é a inovação das estratégias pedagógicas orientadas para a mudança conceptual. As escolas podem estar equipadas com vários recursos tecnológicos, mas a sua integração no processo ensino-aprendizagem, como práticas inovadoras e promotoras de uma utilização efetiva por parte dos discentes, é ainda limitada. Cabe ao professor do século XXI incrementar a utilização das Tecnologias de Inovação e Comunicação nas suas práticas letivas permitindo aos alunos, que temos na sala de aula, e que nasceram na era digital, uma maior motivação e potenciação das suas aprendizagens. O conteúdo “O Sistema Nervoso”, só abordado no 9º ano de escolaridade, temática incluída no tema organizador “Viver Melhor na Terra”, envolve termos científicos complexos, sendo sempre um grande desafio para os docentes a sua abordagem em contexto educativo. Neste contexto enunciou-se o seguinte problema de estudo: o podcast aplicado como auxiliar de aprendizagem do segmento de conteúdo “O Sistema Nervoso”, levará a uma melhoria dos resultados escolares dos alunos do 9º ano? Para este estudo utilizou-se uma metodologia mista, envolvendo 19 alunos, permitindo a utilização de vários métodos e diferentes formas de obter dados e os analisar. É um estudo de caso e os resultados mostram o impacto da utilização de um podcast educacional como auxiliar de aprendizagem de um conteúdo, “O Sistema Nervoso”. O ensino-aprendizagem deixou de estar confinado à sala de aula, podendo ocorrer em qualquer lugar e a todo o momento, de acordo com a escolha dos alunos e respeitando o ritmo de aprendizagem de cada um. A audição do podcast revelou-se um instrumento facilitador do trabalho autónomo, já que é um reforço pedagógico e/ou estratégia de ensino diferenciado, funcionando como um auxiliar esclarecedor, através do qual os alunos clarificam as suas dúvidas, o que não conseguiriam fazer sozinhos. Permite, ainda, recriar o ambiente de sala de aula na explicação dos conteúdos.