961 resultados para definição
Resumo:
Com o objectivo de cumprir com as normas legais em vigor na Universidade de Aveiro conducentes ao reconhecimento do grau de Doutor em Design por avaliação da obra realizada, o presente relatório descreve os objectivos e procedimentos metodológicos, demonstrando o argumento da inovação no conjunto compilado das 100 obras seleccionadas entre os projectos de design realizados no período dos últimos dez anos de actividade profissional do candidato. Para além do enunciado em conformidade com os pressupostos legais, e porque a obra desenvolvida decorre de um contínuo processo de reflexão sobre a própria prática, entende o candidato oportuna a apresentação de um conjunto de textos realizados no mesmo período e que conformarão assim, uma cosmologia teórica própria, sobre a história e teoria do design que contribuirá para o melhor esclarecimento em contexto, das intenções éticas e estéticas dessa obra. O conjunto de contributos de reflexão teórica, que aqui se encontram revelam uma continuidade (maculada pela experiência existencial), que atribui à prática um desempenho quase sempre contaminado pelo corpo de afectos do seu agente, que assim dá origem ao género criativo (poietico) autobiográfico, fundado na metodologia fenomenológica (revelando a ciência do design nos seus próprios procedimentos, “voltando às próprias coisas”). Ao reflectir sobre a prática de projecto enquanto definição disciplinar de Design, verificou-se urgente o esclarecimento ontológico da disciplina, assim procurando perscrutar a definição do que seja, para compreender melhor de que forma lhe pudesse servir os seus interesses bioculturais, numa perspectiva metaprojectual, social, política e estética. O Design, enquanto disciplina da con-formação (da atribuição de forma às coisas), é também o lugar da atribuição de sentido, elevando-as à condição de seres idealizados _ formas são ideias, ainda que imperfeitamente desenhadas (Platão). Neste pressuposto parece inevitável a aproximação da prática projectual do design ao exercício da filosofia, já que a filosofia serve, sobretudo, para inventar conceitos operativos, funcionalizando a mudança (Deleuze). No entanto, o que se encontra neste registo não é uma produção prática que ilustra a jusante uma intencionalidade teórica motivadora mas, bem pelo contrário, uma teorização que anda a zorro da prática da vida, procurando perceber o que parecia inconscientemente suspeitar, confirmando-o. O conjunto de temas teoricamente tratados, constituem aproximações naturalistas por tentativa e erro, que se repetem no tempo em torno de palavras chave como poética, criação, criatividade, tecnologia, artesanato, ontologia, disciplina, desenho, desejo-desenho-desígnio, engenharia-arte-gestão, design, projecto, humano, humanização, diferença, dispositivo, ética, estética, domínio, submissão, zen. Muitos destes temas foram apropriados recorrendo a um conjunto muito diverso e heterogéneo de autores. Aqui misturam-se os filósofos universalmente consagrados, com outros pensadores do Design (Adorno, Aristóteles, Badiou, Di Bártolo, Branco, Brusatin, Calvera, Deleuze, Descartes, Doberti, Espinosa, Flusser, Heidegger, Leiro, Maldonado, Munari, Platão, Pombo, Séneca, Simon, Zizek, e Zumthor), aos quais se associa uma terceira vaga de colegas menos conhecidos, estudantes e investigadores, respigados no grande acaso da web. Na sua assistemática forma de abordagem teórica (Flusser), a teoria não é aqui convocada como janela modernista, abrindo-se sem limites sobre a paisagem organizada, mas como múltiplas aberturas determinadas pela urgência da necessidade, conformando uma arquitectura orgânica e espontânea, do vernacular dirigido por pontos de vista pertinentes e dispersos, produzindo uma visão caleidoscópica, múltipla, cubista, mas sincronicamente orientada sobre o objecto que, tendo vida própria, não pára para posar.
Resumo:
A presente tese investiga o processo de tomada de decisão na gestão de cadeias de abastecimento, utilizando um quadro de análise de opções reais. Especificamente, estudamos tópicos como o nível de inventário ideal para protecção contra a incerteza da procura, o momento para implementação de capacidade flexível em mercados onde existe complexidade no mix de produtos, o tempo para o reforço do factor trabalho visando requisitos de serviço ao mercado, e as decisões entre integração e outsourcing num ambiente de incerteza. Foram usadas metodologias de tempo discreto e contínuo para identificar o valor ideal e o calendário das opções a adoptar, quando a procura é estocástica. Além disso, foram considerados os efeitos dos requisitos dos mercados, como a complexidade na oferta de produtos e o nível de serviço. A procura é representada recorrendo a diferentes processos estocásticos, o impacto de saltos inesperados também é explorado, reforçando a generalização dos modelos a diferentes condições de negócio. A aplicabilidade dos modelos que apresentamos permite a diversificação e o enriquecimento da literatura sobre a abordagem de opções reais, no âmbito das cadeias de abastecimento. Níveis de inventário flexíveis e capacidades flexíveis são característicos das cadeias de abastecimento e podem ser usados como resposta à incerteza do mercado. Esta tese é constituída por ensaios que suportam a aplicação dos modelos, e consiste num capítulo introdutório (designado por ensaio I) e mais seis ensaios sobre factores que discutem o uso de medidas de flexibilidade nas cadeias de abastecimento, em ambientes de incerteza, e um último ensaio sobre a extensão do conceito de flexibilidade ao tratamento da avaliação de planos de negócio. O segundo ensaio que apresentamos é sobre o valor do inventário num único estádio, enquanto medida de flexibilidade, sujeita ao crescente condicionalismo dos custos com posse de activos. Introduzimos uma nova classificação de artigos para suportar o indicador designado por overstock. No terceiro e quarto ensaio ampliamos a exploração do conceito de overstock, promovendo a interacção e o balanceamento entre vários estádios de uma cadeia de abastecimento, como forma de melhorar o desempenho global. Para sustentar a aplicação prática das abordagens, adaptamos o ensaio número três à gestão do desempenho, para suportar o estabelecimento de metas coordenadas e alinhadas; e adaptamos o quarto ensaio à coordenação das cadeias de abastecimento, como auxiliar ao planeamento integrado e sequencial dos níveis de inventário. No ensaio cinco analisamos o factor de produção “tecnologia”, em relação directa com a oferta de produtos de uma empresa, explorando o conceito de investimento, como medida de flexibilidade nas componentes de volume da procura e gama de produtos. Dedicamos o ensaio número seis à análise do factor de produção “Mão-de-Obra”, explorando as condicionantes para aumento do número de turnos na perspectiva económica e determinando o ponto crítico para a tomada de decisão em ambientes de incerteza. No ensaio número sete exploramos o conceito de internalização de operações, demarcando a nossa análise das demais pela definição do momento crítico que suporta a tomada de decisão em ambientes dinâmicos. Complementamos a análise com a introdução de factores temporais de perturbação, nomeadamente, o estádio de preparação necessário e anterior a uma eventual alteração de estratégia. Finalmente, no último ensaio, estendemos a análise da flexibilidade em ambientes de incerteza ao conceito de planos de negócio. Em concreto, exploramos a influência do número de pontos de decisão na flexibilidade de um plano, como resposta à crescente incerteza dos mercados. A título de exemplo, usamos o mecanismo de gestão sequencial do orçamento para suportar o nosso modelo. A crescente incerteza da procura obrigou a um aumento da agilidade e da flexibilidade das cadeias de abastecimento, limitando o uso de muitas das técnicas tradicionais de suporte à gestão, pela incapacidade de incorporarem os efeitos da incerteza. A flexibilidade é claramente uma vantagem competitiva das empresas que deve, por isso, ser quantificada. Com os modelos apresentados e com base nos resultados analisados, pretendemos demonstrar a utilidade da consideração da incerteza nos instrumentos de gestão, usando exemplos numéricos para suportar a aplicação dos modelos, o que claramente promove a aproximação dos desenvolvimentos aqui apresentados às práticas de negócio.
Resumo:
No contexto econômico competitivo e globalizado no qual as corporações estão inseridas, emerge a necessidade de evolução constante para acompanhar as mudanças que o ambiente lhes impõe, visando a sustentabilidade e a perpetuidade. A evolução econômica e financeira das corporações pode promover o desenvolvimento de uma nação, mesmo que o aumento da concorrência no mercado obrigue-as a investirem em novas relações com o seu universo, buscando melhorar os seus níveis de desempenho mensurados por meio de novos instrumentos economicos e financeiros. Desta forma, o grau de investimento corporativo passa a ser relevante, pois pode gerar confiança em novos investimentos, sendo visto como sinônimo de economia forte. No concernente ao objetivo, esta tese teve como escopo o desenvolvimento de um indicador econômico e financeiro visando balizar o grau de credibilidade rating que as corporações apresentam em sua estrutura corporativa, por meio de um conjunto de índices econômicos e financeiros ligados à liquidez, à lucratividade, ao endividamento e à rentabilidade, provindos das demonstrações econômicas e financeiras das corporações estudadas. Este estudo caracteriza-se no contexto da tipologia aplicada, de objetivo descritivo com delineamento bibliográfico, na amplitude da problemática, caracteriza-se como quantitativo, compreendendo a população de 70 corporações brasileiras reconhecidas pelas certificadoras internacionais, Standard & Poor's, Moody's e Fitch Ratings, as quais detinham o grau de investimento corporativo no ano de 2008. Quanto aos métodos e procedimentos estatísticos, primeiramente utilizou-se a análise descritiva com vistas ao resumo dos dados, posteriormente foi feita a análise de correlação por meio do Coeficiente de Correlação Linear de Pearson, aplicando-se em seguida a análise de regressão. Em seguida para a confecção do modelo utilizou-se a análise fatorial e para testificar sua confiabilidade o Alfa de Cronbach, utilizou-se também a análise discriminante, para classificação dos quartis. As conclusões do estudo baseiamse nos resultados apresentados pela evolução do tratamento estatístico, que inicialmente apresentam uma correlação predominantemente fraca, no entanto isto não invalida a correlação de Pearson, pois todos os coeficientes apresentaram uma significância de (p<0,05). Na aplicação da análise de regressão, todos os modelos apresentaram resultados satisfatórios sendo perceptível a existência de uma forte correlação. A confiabilidade do modelo de grau de investimento corporativo provindo da análise fatorial foi testificada pelo coeficiente do Alpha de Cronbach, que apresentou valor de 0,768, o que indica consistência interna satisfatória ao estudo. O grau de investimento na base longitudinal de 2008 a 2010 apresenta variabilidade de 95,72% a 98,33% de acertividade. Portanto, conclui-se que o indicador criado por este estudo, possui condições de ser utilizado como base de definição do grau de investimento de corporações empresariais.
Resumo:
O presente trabalho refere-se à definição de posicionamento estratégico de uma PME, onde se justifica a implementação de um portal de e-commerce na área do petshop. Apresentam-se todos os passos tomados durante a realização deste projeto, bem como a evolução que este apresentou ao longo do seu ciclo de vida, terminando com a apresentação de sugestões de trabalho futuro.
Resumo:
Esta dissertação estuda em detalhe três problemas elípticos: (I) uma classe de equações que envolve o operador Laplaciano, um termo singular e nãolinearidade com o exponente crítico de Sobolev, (II) uma classe de equações com singularidade dupla, o expoente crítico de Hardy-Sobolev e um termo côncavo e (III) uma classe de equações em forma divergente, que envolve um termo singular, um operador do tipo Leray-Lions, e uma função definida nos espaços de Lorentz. As não-linearidades consideradas nos problemas (I) e (II), apresentam dificuldades adicionais, tais como uma singularidade forte no ponto zero (de modo que um "blow-up" pode ocorrer) e a falta de compacidade, devido à presença do exponente crítico de Sobolev (problema (I)) e Hardy-Sobolev (problema (II)). Pela singularidade existente no problema (III), a definição padrão de solução fraca pode não fazer sentido, por isso, é introduzida uma noção especial de solução fraca em subconjuntos abertos do domínio. Métodos variacionais e técnicas da Teoria de Pontos Críticos são usados para provar a existência de soluções nos dois primeiros problemas. No problema (I), são usadas uma combinação adequada de técnicas de Nehari, o princípio variacional de Ekeland, métodos de minimax, um argumento de translação e estimativas integrais do nível de energia. Neste caso, demonstramos a existência de (pelo menos) quatro soluções não triviais onde pelo menos uma delas muda de sinal. No problema (II), usando o método de concentração de compacidade e o teorema de passagem de montanha, demostramos a existência de pelo menos duas soluções positivas e pelo menos um par de soluções com mudança de sinal. A abordagem do problema (III) combina um resultado de surjectividade para operadores monótonos, coercivos e radialmente contínuos com propriedades especiais do operador de tipo Leray- Lions. Demonstramos assim a existência de pelo menos, uma solução no espaço de Lorentz e obtemos uma estimativa para esta solução.
Resumo:
O campo de análise do estudo compreende o subsetor de cerâmica utilitária e decorativa (CUD) nacional. Nesse contexto, o estudo analisa o papel atual do designer e propõe novas estratégias de gestão do design, como ferramentas estratégicas potenciadoras de inovação e de valor acrescentado, para o produto e para o desenvolvimento da empresa. A pertinência da investigação justifica-se pela necessidade premente da reestruturação estratégica das empresas do setor face ao cenário da crise atual. Os dados mais recentes disponibilizados do subsetor indicam que, de 2002 para 2008, encerraram 36,6% das empresas, o número de trabalhadores reduziu-se em 36,8% e o volume de negócios decresceu 32%. Acrescenta-se ainda que, do ano de 2008 para 2012, encerraram 15% das empresas da amostra. Pretende-se com este estudo não só definir o estado atual da arte e do subsetor mas, ir mais além, procurando respostas aos problemas detetados, através de ferramentas estratégicas para a gestão do design integrado nas estratégias de imagem, comercialização e produção. O estudo compreendeu as seguintes etapas: pesquisa, análise de dados e desenvolvimento dos resultados. A etapa da pesquisa correspondeu à recolha da documentação disponível para o contexto do subsetor e da gestão do design apresentado no estado da arte; a pesquisa de campo a seleção de empresas da amostra onde se realizaram questionários (em 2008 e 2012) e entrevistas (em 2008) no universo amostra. Na análise de dados, estes foram apresentados e analisados de forma quantitativa e qualitativa (com recurso a lugares estruturais e a palavras-chave) e relacionados com o estado de arte e desenvolvimento de resultados. A última etapa, desenvolvimento dos resultados, traduz-se pela idealização e construção de ferramentas sob a perspetiva da gestão do design nas empresas: em checklists da definição do trabalho do designer e da integração do designer nas estratégias de gestão do design, aplicadas ao subsetor; na definição das estratégias vigentes na amostra; na sugestão de uma estratégia de gestão de design direcionada para o subsetor e de planos de ação concordantes com a estratégia sugerida. A novidade do estudo está presente nas propostas de ferramentas estratégicas, onde se define o trabalho do designer, enuncia estratégias de gestão do design direcionadas ao subsetor, define campos de integração do designer nessas estratégias, caracteriza-se a aplicabilidade de práticas de gestão do design e sugere-se uma estratégia e planos de ação para aplicar ao subsetor de CUD. De modo a facilitar a aplicação da investigação e da análise aqui realizada, redigiu-se um manual de estratégias de gestão do design – Cerâmica design mais – para disponibilizar e apresentar futuramente ao subsetor e a todos os interessados no tema.
Resumo:
A informação digitalizada e nado digital, fruto do avanço tecnológico proporcionado pelas Tecnologias da Informação e Comunicação (TIC), bem como da filosofia participativa da Web 2.0, conduziu à necessidade de reflexão sobre a capacidade de os modelos atuais, para a organização e representação da informação, de responder às necessidades info-comunicacionais assim como o acesso à informação eletrónica pelos utilizadores em Instituições de Memória. O presente trabalho de investigação tem como objetivo a conceção e avaliação de um modelo genérico normativo e harmonizador para a organização e representação da informação eletrónica, num sistema de informação para o uso de utilizadores e profissionais da informação, no contexto atual colaborativo e participativo. A definição dos objetivos propostos teve por base o estudo e análise qualitativa das normas adotadas pelas instituições de memória, para os registos de autoridade, bibliográfico e formatos de representação. Após a concetualização, foi desenvolvido e avaliado o protótipo, essencialmente, pela análise qualitativa dos dados obtidos a partir de testes à recuperação da informação. A experiência decorreu num ambiente laboratorial onde foram realizados testes, entrevistas e inquéritos por questionário. A análise cruzada dos resultados, obtida pela triangulação dos dados recolhidos através das várias fontes, permitiu concluir que tanto os utilizadores como os profissionais da informação consideraram muito interessante a integração da harmonização normativa refletida nos vários módulos, a integração de serviços/ferramentas comunicacionais e a utilização da componente participativa/colaborativa da plataforma privilegiando a Wiki, seguida dos Comentários, Tags, Forum de discussão e E-mail.
Resumo:
A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.
Resumo:
No âmbito dos contextos de aprendizagem de projeto em Design, nas instituições de Ensino Superior, é cada vez mais frequente a utilização de plataformas de gestão das aprendizagens on-line (LMS) no suporte às atividades curriculares à distância. Contudo estes sistemas apesar de darem um precioso contributo através da gestão de conteúdos, das funcionalidades ligadas à avaliação dos alunos e da comunicação entre pares, respondem de forma ineficiente a outras necessidades específicas de alunos e professores no desenvolvimento de unidades curriculares de Design ligadas à aprendizagem de projeto. Este fato contribuiu para que recorrêssemos às tecnologias móveis e sociais na procura de uma solução que melhor se ajuste à aplicação das novas metodologias de e-learning adaptadas a este tipo de contextos. Partindo dessa constatação desenvolvemos e testámos um modelo tecnológico que julgamos introduzir vantagens bastante significativas na definição de novas metodologias de suporte on-line a contextos de aprendizagem personalizada (PLE) em disciplinas ligadas à aprendizagem colaborativa de projeto em Design. Através do levantamento de necessidades detetadas no terreno e da análise da oferta tecnológica existente, reunimos um conjunto de requisitos que nos permitiu desenvolver o protótipo de um sistema tecnológico que fundamenta a totalidade do modelo teórico que propomos em resposta aos pressupostos equacionados no início deste relatório.
Resumo:
O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.
Resumo:
Nos últimos anos, as tecnologias que dão suporte à robótica avançaram expressivamente. É possível encontrar robôs de serviço nos mais variados campos. O próximo passo é o desenvolvimento de robôs inteligentes, com capacidade de comunicação em linguagem falada e de realizar trabalhos úteis em interação/cooperação com humanos. Torna-se necessário, então, encontrar um modo de interagir eficientemente com esses robôs, e com agentes inteligentes de maneira geral, que permita a transmissão de conhecimento em ambos os sentidos. Partiremos da hipótese de que é possível desenvolver um sistema de diálogo baseado em linguagem natural falada que resolva esse problema. Assim, o objetivo principal deste trabalho é a definição, implementação e avaliação de um sistema de diálogo utilizável na interação baseada em linguagem natural falada entre humanos e agentes inteligentes. Ao longo deste texto, mostraremos os principais aspectos da comunicação por linguagem falada, tanto entre os humanos, como também entre humanos e máquinas. Apresentaremos as principais categorias de sistemas de diálogo, com exemplos de alguns sistemas implementados, assim como ferramentas para desenvolvimento e algumas técnicas de avaliação. A seguir, entre outros aspectos, desenvolveremos os seguintes: a evolução levada a efeito na arquitetura computacional do Carl, robô utilizado neste trabalho; o módulo de aquisição e gestão de conhecimento, desenvolvido para dar suporte à interação; e o novo gestor de diálogo, baseado na abordagem de “Estado da Informação”, também concebido e implementado no âmbito desta tese. Por fim, uma avaliação experimental envolvendo a realização de diversas tarefas de interação com vários participantes voluntários demonstrou ser possível interagir com o robô e realizar as tarefas solicitadas. Este trabalho experimental incluiu avaliação parcial de funcionalidades, avaliação global do sistema de diálogo e avaliação de usabilidade.
Resumo:
Graças aos desenvolvimentos na área da síntese de nanomaterais e às potentes técnicas de caracterização à nanoescala conseguimos hoje visualizar uma nanopartícula (NP) como um dispositivo de elevado potencial terapêutico. A melhoria da sua efectividade terapêutica requer no entanto o aprofundamento e sistematização de conhecimentos, ainda muito incipientes, sobre toxicidade, selectividade, efeitos colaterais e sua dependência das próprias características físico-químicas da NP em análise. O presente trabalho, elegendo como alvo de estudo uma substância considerada biocompatível e não tóxica, a hidroxiapatite (Hap), pretende dar um contributo para esta área do conhecimento. Definiram-se como metas orientadoras deste trabalho (i) estudar a síntese de nanoparticulas de Hap (Hap NP), e a modificação das características físico-químicas e morfológicas das mesmas através da manipulação das condições de síntese; (ii) estudar a funcionalização das Hap NP com nanoestruturas de ouro e com ácido fólico, para lhes conferir capacidades acrescidas de imagiologia e terapêuticas, particularmente interessantes em aplicações como o tratamento do cancro (iii) estudar a resposta celular a materiais nanométricos, com propriedades físico-químicas diversificadas. No que se refere à síntese de Hap NP, comparam-se dois métodos de síntese química distintos, a precipitação química a temperatura fisiológica (WCS) e a síntese hidrotérmica (HS), em meios aditivados com ião citrato. A síntese WCS originou partículas de tamanho nanométrico, com uma morfologia de agulha, pouco cristalinas e elevada área superficial especifica. A síntese HS à temperatura de 180ºC permitiu obter partículas de dimensões também nanométricas mas com área específica inferior, com morfologia de bastonete prismático com secção recta hexagonal e elevada cristalinidade. Com o objectivo de aprofundar o papel de algumas variáveis experimentais na definição das características finais das partículas de hidroxiapatite, designadamente o papel do ião citrato (Cit), variou-se a razão molar [Cit/Ca] da solução reagente e o tempo de síntese. Demonstrou-se que o ião citrato e outras espécies químicas resultantes da sua decomposição nas condições térmicas (180ºC) de síntese tem um papel preponderante na velocidade de nucleação e de crescimento dessas mesmas partículas e por conseguinte nas características físico-químicas das mesmas. Elevadas razões [Cit/Ca] originam partículas de dimensão micrométrica cuja morfologia é discutida no contexto do crescimento com agregação. Com o objectivo de avaliar a citotoxicidade in vitro das nanopartículas sintetizadas procedeu-se à esterilização das mesmas. O método de esterilização escolhido foi a autoclavagem a 121º C. Avaliou-se o impacto do processo de esterilização nas características das partículas, verificando-se contrariamente às partículas WCS, que as partículas HS não sofrem alterações significativas de morfologia, o que se coaduna com as condições de síntese das mesmas, que são mais severas do que as de esterilização. As partículas WCS sofrem processos de dissolução e recristalização que se reflectem em alterações significativas de morfologia. Este estudo demonstrou que a etapa de esterilização de nanopartículas para aplicações biomédicas, por autoclavagem, pode alterar substancialmente as propriedades das mesmas, sendo pois criticamente importante caracterizar os materiais após esterilização. Os estudos citotoxicológicos para dois tipos de partículas esterilizadas (HSster e WCSster) revelaram que ambas apresentam baixa toxicidade e possuem potencial para a modelação do comportamento de células osteoblásticas. Tendo em vista a funcionalização da superfície das Hap NP para multifunções de diagnóstico e terapia exploraram-se condições experimentais que viabilizassem o acoplamento de nanopartículas de ouro à superfície das nanopartículas de Hidroxiapatite (Hap-AuNP). Tirando partido da presença de grupos carboxílicos adsorvidos na superfície das nanopartículas de Hap foi possível precipitar partículas nanométricas de ouro (1,5 a 2,5 nm) na superfície das mesmas adaptando o método descrito por Turkevich. No presente trabalho as nanopartículas de Hap funcionaram assim como um template redutor do ouro iónico de solução, propiciando localmente, na superfície das próprias nanopartículas de Hap, a sua redução a ouro metálico. A nucleação do ouro é assim contextualizada pelo papel redutor das espécies químicas adsorvidas, designadamente os grupos carboxílicos derivados de grupos citratos que presidiram à síntese das próprias nanopartículas de Hap. Estudou-se também a funcionalização das Hap NP com ácido fólico (FA), uma molécula biologicamente interessante por ser de fácil reconhecimento pelos receptores existentes em células cancerígenas. Os resultados confirmaram a ligação do ácido fólico à superfície das diferentes partículas produzidas HS e Hap-AuNPs. Graças às propriedades ópticas do ouro nanométrico (efeito plasmão) avaliadas por espectroscopia vis-UV e às potencialidades de hipertermia local por conversão fototérmica, as nanoestruturas Hap-AuNPs produzidas apresentam-se com elevado interesse enquanto nanodispositivos capazes de integrar funções de quimio e terapia térmica do cancro e imagiologia. O estudo da resposta celular aos diversos materiais sintetizados no presente trabalho foi alvo de análise na tentativa de se caracterizar a toxicidade dos mesmos bem como avaliar o seu desempenho em aplicações terapêuticas. Demonstrou-se que as Hap NP não afectam a proliferação das células para concentrações até 500 g/ml, observando-se um aumento na expressão genética da BMP-2 e da fosfatase alcalina. Verificou-se também que as Hap NP são susceptíveis de internalização por células osteoblásticas MG63, apresentando uma velocidade de dissolução intracelular relativamente reduzida. A resposta celular às Hap-AuNP confirmou a não citotoxicidade destas partículas e revelou que a presença do ouro na superfície das Hap NP aumenta a taxa proliferação celular, bem como a expressão de parâmetros osteogénicos. No seu conjunto os resultados sugerem que os vários tipos de partículas sintetizadas no presente estudo apresentam também comportamentos interessantes para aplicações em engenharia de tecido ósseo.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).
Resumo:
O trabalho que apresentamos, “O Quadro Interativo no ensino do Português: dos recursos aos discursos”, situa-se na área do Multimédia em Educação e, mais especificamente, no domínio da tecnologia e pedagogia em sala de aula. Partimos de um projeto de implementação de quadros interativos em agrupamentos/escolas do interior do país, associado a um Centro de Formação e procurámos evidenciar a forma como essa tecnologia levou à introdução de recursos digitais de aprendizagem na unidade curricular de Português. Nesse âmbito, fizemos uma análise sobre os tipos, funcionalidades e usos pelos professores e estudantes no processo de ensino e aprendizagem com os QIM. Analisámos também algumas estratégias de utilização no desenvolvimento de competências essenciais da língua e a interação que proporcionaram no ambiente educativo. Para percebermos as razões e fundamentos que estiveram na base da investigação, procurámos, na primeira parte do nosso trabalho, partir de três vertentes de uma conjuntura que fundamenta a aprendizagem no século XXI: a passagem de uma sociedade da informação para uma sociedade do conhecimento como um processo que radica numa comunicação em rede e na criação de conhecimento(s) através de recursos digitais; o desenvolvimento de competências adequadas e que conduz os indivíduos para ambientes de aprendizagem com as tecnologias; e numa Escola mais familiarizada com as tecnologias, onde o ato de educar cria novos desafios a todos os agentes educativos. Notámos que a capacidade de mobilizar a informação e o conhecimento na rede reclama atitudes dinâmicas, flexíveis e adaptadas à multiculturalidade. Esta característica favorece a construção de aprendizagens multifacetadas, a inclusão progressiva do individuo na “aldeia global”, tornando-o também cada vez mais criativo e produtivo. A promoção de espaços interativos de aprendizagem facilita esse processo e o conhecimento desenvolve-se numa interação social mediada por tecnologias que nos fazem participar nessa multiculturalidade, diversidade do universo e nas histórias pessoais e coletivas. Num ambiente com estas características, torna-se necessário passar de um conceito de ensino declarado nos saberes básicos ou em conhecimentos factuais para uma estratégia de aprendizagem que incida sobre o desenvolvimento e aquisição de outras habilidades. A aquisição de saberes no âmbito da leitura, da oralidade e da escrita tornamse importantes para os indivíduos porquanto esses saberes transformam-se em competências transversais para outros domínios e literacias. Tentámos mostrar que a escola do futuro terá de ser um espaço educativo que implique ambientes de aprendizagem onde vão confluir várias ferramentas tecnológicas, que arrastam consigo outros recursos e outras possibilidades de acesso à informação e à construção de conhecimento. Para isso, a escola está obrigada a mudar alguns conceitos e estratégias e a focar-se no desenvolvimento de competências para a vida. A definição de recurso educativo ou recurso de aprendizagem e a aceção do quadro interativo como um recurso tecnológico, que envolve outros recursos, digitais e multimédia, levou-nos a concluir sobre as potenciais mais-valias deste equipamento. Para além da apresentação da informação, da orientação da atenção e das aprendizagens para o grupo - turma, abre-se a possibilidade de relacionar e organizar conteúdos digitais multimédia, criar conhecimento e desenvolver competências de acordo com os interesses dos públicos em fase de escolarização. Reclama-se um padrão de qualidade nos recursos, avaliados e estruturados em função dos conteúdos, objetivos, desempenhos e currículos de aprendizagem dos aprendentes. Definimos o paradigma digital e as dinâmicas de comunicação e interação proporcionadas pelo quadro interativo. Concluímos que o QIM produz efeitos positivos sobre a participação dos estudantes, evidenciada por um comportamento mais positivo face às tarefas a realizar em sala de aula. Contudo, o papel desta ferramenta e dos recursos utilizados requerem dos professores e dos ambientes educativos novas práticas e modelos de comunicação mais interativos. A informação e o conhecimento tornam-se mais fluidos, diversos e atuais. Fluxos variados de informação em vários suportes e formatos ou pesquisas em tempo real podem ser facilmente incorporados, acedidos e manipulados durante as aulas. A partilha de materiais e recursos retroalimenta uma rede de informação e troca de conhecimentos, amplia a aprendizagem e cria comunidades de prática com as tecnologias. A inclusão do QIM, no contexto do ensino e aprendizagem do Português, promoveu a literacia digital; o desenvolvimento de recursos digitais de aprendizagem; criou ambientes educativos modernos, mais apelativos, criativos e inovadores. Conduziu a uma mudança de práticas, que se querem mais ajustadas às necessidades e expectativas dos estudantes, aos desafios dos novos tempos e aos objetivos de uma educação que reforça o papel e autonomia dos indivíduos no processo de aprendizagem. Por isso, a lógica de projeto ou as dinâmicas de trabalho em projeto devem conduzir a dinâmicas de escola que elevem os comportamentos dos professores para se familiarizarem com a tecnologia, mas também para desenvolverem competências tecnológicas e profissionais coadunadas com contextos educativos atuais. Os resultados disponíveis mostram um quadro predominantemente positivo das possibilidades educativas dos QIM no ensino do Português. O QIM apresenta um conjunto de potencialidades pedagógicas; incentiva ao uso de recursos digitais em vários formatos e com várias finalidades; propicia estratégicas de construção e reconstrução dos percursos de aprendizagem que levam ao desenvolvimento de competências essenciais da língua. Porém, há ainda alguns aspetos que necessitam de ser revistos para tornar os QIM ainda mais eficazes como ferramenta de ensino e aprendizagem em sala de aula. Assim: i. A introdução de recursos digitais de aprendizagem na sala de aula deve ser um processo bem refletido que conduza e valorize a aproximação do professor e dos estudantes, visto que ambos estão perante uma nova realidade de conceitos, representações e formatos que carecem de habilidades, capacidades, comportamentos e literacias próprias; ii. A transformação do ensino, no que respeita a uma aprendizagem mais autónoma e individualizada, não está generalizada com a introdução dos QIM nos contextos de aprendizagem observados. Parece haver um incentivo para abordagens tradicionais centradas no professor e nos conteúdos, uma vez que a aquisição de conhecimentos está também condicionada por um sistema educativo que considera esses conteúdos estritamente necessários para o desempenho de determinadas tarefas; iii. Pelos vários níveis de análise do discurso pedagógico que se institui com os QIM, o tipo que melhor o define é ainda o tipo unidirecional. O discurso interativo, tão badalado pelos modelos comunicacionais modernos e pelos conceitos inerentes às tecnologias interativas, parece ainda não ter sido bem compreendido e explorado nos benefícios que os QIM, os recursos digitais interativos e as tecnologias em geral podem trazer ao processo de ensino e aprendizagem do Português no 3º CEB.