921 resultados para Termodinâmica computacional
Resumo:
Ante la problemática que presenta la enseñanza y el aprendizaje de los conceptos del cálculo diferencial y también al surgimiento de herramientas computacionales capaces de graficar y realizar derivación simbólica y manipulaciones algebraicas, se requiere una reflexión crítica sobre cómo se puede utilizar la tecnología para apoyar la enseñanza y el aprendizaje del cálculo. En este artículo, se hace una propuesta didáctica que se ha implementado en un sistema computacional y un libro que la implementa. El acercamiento se apoya fuertemente en actividades con polinomios a través de los cuales se puede apreciar el poder del cálculo diferencial sin demérito de considerar situaciones suficientemente complejas.
Resumo:
Este trabajo es parte de un proyecto de investigación sobre la aplicación de tecnología computacional en la enseñanza y aprendizaje de matemáticas con alumnos de nivel medio básico o secundaria (séptimo a noveno grado) y nivel medio superior o bachillerato (décimo a doceavo grado), en particular, trata de entender la función mediadora del efecto de “arrastre” del software de geometría dinámica en la cognición de sujetos que estudian las nociones de variación y variable. Aquí reportamos los resultados de una exploración, usando Cabri, en el aprendizaje de esas nociones con estudiantes de nivel medio básico de 13-14 años de edad. Se describen las actividades, las respuestas de los estudiantes y una experiencia que sugiere el potencial de la verbalización de los resultados por los estudiantes en el proceso de simbolización algebraica.
Resumo:
Sobre la base de investigaciones que realizamos previamente acerca de los errores frecuentes de nuestros alumnos en las cuestiones de Álgebra básica, que les impiden incorporar adecuadamente conceptos del Análisis Matemático, en la cátedra de esta asignatura de la Facultad de Ciencias Económicas nos propusimos realizar diversas acciones que tiendan a modificar esa situación, con el propósito de promover que el alumno emprenda un aprendizaje eficaz del Cálculo. Entre otras acciones planificamos un conjunto de clases previas al desarrollo de la asignatura en las que, sobre la base de materiales escritos de guía para el aprendizaje y con la incorporación del uso de la herramienta computacional, el alumno tendrá oportunidad de efectuar actividades de introducción-motivación sobre conocimientos previos, con respecto a las falencias más frecuentes que se han detectado, la cantidad y calidad de los errores que, en general, cometen con el uso de la matemática básica. Otras actividades son de consolidación y/o de refuerzo, de recuperación y/o ampliación a medida que se evalúa el avance del alumno. El uso de la herramienta computacional, en este caso, el Programa Matemático-Informático DERIVE, tiene por objeto proporcionar al alumno un primer contacto con el mismo y aprovecharlo como recurso pedagógico en el aula, motivante y colaborador en las realización de las actividades propuestas.
Resumo:
El currículo de estadística en el sistema escolar sugiere desde la infancia un cambio metodológico de enseñanza hacia el desarrollo de los aspectos intuitivos de lo estocástico en situaciones de incertidumbre. El Taller tiene dos propósitos, presentar actividades de experimentos aleatorios con dispositivos manipulativos, algebraico y computacional para familiarizarse con la noción de distribución de probabilidad binomial. También, ilustrar que su enseñanza en la educación secundaria por medio de variadas representaciones proporciona una mayor potencia en el cálculo de probabilidades y la introducción de las ideas de parámetro, estadístico, simulación, variable aleatoria y aproximación.
Resumo:
La simulación computacional de problemas de probabilidad permite obtener sus soluciones a través de la frecuencia relativa del número de éxitos obtenidos en los n experimentos realizados. La ley de los grandes números respalda una buena aproximación de la probabilidad teórica de un evento a través de la repetición sucesiva de experimentos. A continuación se presentan una serie de problemas probabilísticos con una posible simulación realizada en los paquetes Fathom y Excel. La solución teórica de estos problemas requiere conocimientos básicos de probabilidad, por lo que las simulaciones realizadas buscan dar una propuesta de solución a estos problemas sin tener que acudir al formalismo matemático.
Resumo:
Aún si su trabajo parece no estar vinculado con la matemática, Mathematica puede ser de su interés. Con este recurso el arduo trabajo del cálculo -numérico o simbólico- resulta cosa del pasado, el desarrollo de materiales didácticos tiene nuevas y revolucionarias herramientas, las aplicaciones de modelos matemáticos pueden producir resultados sin ocuparse de la implementación computacional de complicados algoritmos matemáticos, en suma, con las computadoras y Mathematica se multiplican las capacidades para entender, desarrollar y aplicar las matemáticas y ciencias afines.
Resumo:
Este trabajo revisa la evolución y estado actual de la automoción eléctrica; analiza las ventajas ambientales, de eficiencia energética y de costes del motor eléctrico frente al de combustión interna; y presenta como limitaciones para el uso del vehículo eléctrico, el desarrollo actual de las baterías recargables y la lenta implantación de electrolineras. Con el objetivo de contribuir al desarrollo de una actividad económica respetuosa con el medio ambiente y basada en nuevas tecnologías, se proyecta, a partir de experiencias previas, una instalación de puntos de recarga para una ciudad de 50.000 habitantes con un parque de 100 vehículos eléctricos que dispone de dos plazas de recarga rápida (poste trifásico 400V CA), siete plazas de recarga lenta (postes monofásicos 230V CA) y de 50 módulos fotovoltaicos que producen diariamente la energía equivalente a la recarga lenta de un vehículo en los meses fríos y de dos en los meses cálidos.
Resumo:
La presente tesis está enfocada al análisis estrictamente de la combustión de un quemador de aceite (fuel oil # 6) para un caldero degeneración de vapor de agua de 300 BHP de potencia, el cual para su atomización del combustible usa aire comprimido a 40 PSI de presión y una temperatura que va desde los 15 ºC hasta los 150 ºC según nuestra particular implementación del sistema de calentamiento. El desarrollo emprende desde un marco teórico de los quemadores, sus partes consistentes, el combustible, clasificación, propiedades y características. De manera muy particular nos centramos en el proceso de combustión por cuanto es la parte medular del presente documento, así como generalidades, fundamentos, los elementos y productos, los comportamientos de éstos en la combustión. Además enfocamos conceptos básicos de tipos de combustión. En una forma analítica se establece la ecuación general de la combustión, una evaluación de la energía liberada en el proceso, en base al volumen y composición de lso productos que intervienne en la misma, yademás de la forma de cómo calibrar el equipo o sistema para obtener combustion lo más eficiente posible, sea produciendo energía calorífica más alta posible con el mínimo requerido posible de combustión. Se enfoca en el presente documento un análisis de las relaciones termodinámicas en la combustión como: la entalpía de los elementos como de los productos, las entalpías de formación de los mismos, le energía interna de los gases productos, y de la entropía o irreversibilidades del proceso total de combustión. La determinación del calor generado más la temperatura de llama adiabática son temas fundamentales en el desarrollo del tema, es por lo tanto parte importante del documento. Ya en el análisis experimental se parte del hecho de tener instalado a modo de prueba un intercambiador de calor para calentar el aire de atomización en uncaldero específico, esto es en un caldero de 300 BHP de potencia, de generación de vapor de agua de 100 PSI de presión, en la empresa Tejidos Pintex, y el análisis va enfocado a determinar la efectividad o no de calentar el aire de atomización, y de ser así cuantificar los beneficios del sistema.
Resumo:
O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.
Resumo:
O presente trabalho aborda o problema da estimação de canal e da estimação de desvio de frequência em sistemas OFDM com múltiplas configurações de antenas no transmissor e no receptor. Nesta tese é apresentado o estudo teórico sobre o impacto da densidade de pilotos no desempenho da estimação de canal em sistemas OFDM e são propostos diversos algoritmos para estimação de canal e estimação de desvio de frequência em sistemas OFDM com antenas únicas no transmissor e receptor, com diversidade de transmissão e MIMO. O estudo teórico culmina com a formulação analítica do erro quadrático médio de um estimador de canal genérico num sistema OFDM que utilize pilotos dedicados, distribuidos no quadro transmitido em padrões bi-dimensionais. A formulação genérica é concretizada para o estimador bi-dimensional LS-DFT, permitindo aferir da exactidão da formulação analítica quando comparada com os valores obtidos por simulação do sistema abordado. Os algoritmos de estimação investigados tiram partido da presença de pilotos dedicados presentes nos quadros transmitidos para estimar com precisão os parâmetros pretendidos. Pela sua baixa complexidade, estes algoritmos revelam-se especialmente adequados para implementação em terminais móveis com capacidade computacional e consumo limitados. O desempenho dos algoritmos propostos foi avaliado por meio de simulação do sistema utilizado, recorrendo a modelos aceites de caracterização do canal móvel multipercurso. A comparação do seu desempenho com algoritmos de referência permitir aferir da sua validade. ABSTRACT: The present work focus on the problem of channel estimation and frequency offset estimation in OFDM systems, with different antenna configurations at both the transmitter and the receiver. This thesis presents the theoretical study of the impact of the pilot density in the performance of the channel estimation in OFDM systems and proposes several channel and frequency offset algorithms for OFDM systems with single antenna at both transmitter and receiver, with transmitter diversity and MIMO. The theoretical study results in the analytical formulation of the mean square error of a generic channel estimator for an OFDM system using dedicated pilots, distributed in the transmitted frame in two-dimensional patterns. The generic formulation is implemented for the two-dimensional LS-DFT estimator to verify the accuracy of the analytical formulation when compared with the values obtained by simulation of the discussed system. The investigated estimation algorithms take advantage of the presence of dedicated pilots present in the transmitted frames to accurately estimate the required parameters. Due to its low complexity, these algorithms are especially suited for implementation in mobile terminals with limited processing power and consumption. The performance of the proposed algorithms was evaluated by simulation of the used system, using accepted multipath mobile channel models. The comparison of its performance with the one of reference algorithms measures its validity.
Resumo:
O presente trabalho apresenta novas metodologias desenvolvidas para a análise das propriedades magnéticas e magnetocalóricas de materiais, sustentadas em considerações teóricas a partir de modelos, nomeadamente a teoria de transições de fase de Landau, o modelo de campo médio molecular e a teoria de fenómeno crítico. São propostos novos métodos de escala, permitindo a interpretação de dados de magnetização de materiais numa perspectiva de campo médio molecular ou teoria de fenómeno crítico. É apresentado um método de estimar a magnetização espontânea de um material ferromagnético a partir de relações entropia/magnetização estabelecidas pelo modelo de campo médio molecular. A termodinâmica das transições de fase magnéticas de primeira ordem é estudada usando a teoria de Landau e de campo médio molecular (modelo de Bean-Rodbell), avaliando os efeitos de fenómenos fora de equilíbrio e de condições de mistura de fase em estimativas do efeito magnetocalórico a partir de medidas magnéticas. Efeitos de desordem, interpretados como uma distribuição na interacção magnética entre iões, estabelecem os efeitos de distribuições químicas/estruturais nas propriedades magnéticas e magnetocalóricas de materiais com transições de fase de segunda e de primeira ordem. O uso das metodologias apresentadas na interpretação das propriedades magnéticas de variados materiais ferromagnéticos permitiu obter: 1) uma análise quantitativa da variação de spin por ião Gadolínio devido à transição estrutural do composto Gd5Si2Ge2, 2) a descrição da configuração de cluster magnético de iões Mn na fase ferromagnética em manganites da família La-Sr e La-Ca, 3) a determinação dos expoentes críticos β e δ do Níquel por métodos de escala, 4) a descrição do efeito da pressão nas propriedades magnéticas e magnetocalóricas do composto LaFe11.5Si1.5 através do modelo de Bean-Rodbell, 5) uma estimativa da desordem em manganites ferromagnéticas com transições de segunda e primeira ordem, 6) uma descrição de campo médio das propriedades magnéticas da liga Fe23Cu77, 7) o estudo de efeitos de separação de fase na família de compostos La0.70-xErxSr0.30MnO3 e 8) a determinação realista da variação de entropia magnética na família de compostos de efeito magnetocalórico colossal Mn1-x-yFexCryAs.
Resumo:
Tal como o título indica, esta tese estuda problemas de cobertura com alcance limitado. Dado um conjunto de antenas (ou qualquer outro dispositivo sem fios capaz de receber ou transmitir sinais), o objectivo deste trabalho é calcular o alcance mínimo das antenas de modo a que estas cubram completamente um caminho entre dois pontos numa região. Um caminho que apresente estas características é um itinerário seguro. A definição de cobertura é variável e depende da aplicação a que se destina. No caso de situações críticas como o controlo de fogos ou cenários militares, a definição de cobertura recorre à utilização de mais do que uma antena para aumentar a eficácia deste tipo de vigilância. No entanto, o alcance das antenas deverá ser minimizado de modo a manter a vigilância activa o maior tempo possível. Consequentemente, esta tese está centrada na resolução deste problema de optimização e na obtenção de uma solução particular para cada caso. Embora este problema de optimização tenha sido investigado como um problema de cobertura, é possível estabelecer um paralelismo entre problemas de cobertura e problemas de iluminação e vigilância, que são habitualmente designados como problemas da Galeria de Arte. Para converter um problema de cobertura num de iluminação basta considerar um conjunto de luzes em vez de um conjunto de antenas e submetê-lo a restrições idênticas. O principal tema do conjunto de problemas da Galeria de Arte abordado nesta tese é a 1-boa iluminação. Diz-se que um objecto está 1-bem iluminado por um conjunto de luzes se o invólucro convexo destas contém o objecto, tornando assim este conceito num tipo de iluminação de qualidade. O objectivo desta parte do trabalho é então minimizar o alcance das luzes de modo a manter uma iluminação de qualidade. São também apresentadas duas variantes da 1-boa iluminação: a iluminação ortogonal e a boa !-iluminação. Esta última tem aplicações em problemas de profundidade e visualização de dados, temas que são frequentemente abordados em estatística. A resolução destes problemas usando o diagrama de Voronoi Envolvente (uma variante do diagrama de Voronoi adaptada a problemas de boa iluminação) é também proposta nesta tese.
Resumo:
Os problemas de visibilidade têm diversas aplicações a situações reais. Entre os mais conhecidos, e exaustivamente estudados, estão os que envolvem os conceitos de vigilância e ocultação em estruturas geométricas (problemas de vigilância e ocultação). Neste trabalho são estudados problemas de visibilidade em estruturas geométricas conhecidas como polígonos, uma vez que estes podem representar, de forma apropriada, muitos dos objectos reais e são de fácil manipulação computacional. O objectivo dos problemas de vigilância é a determinação do número mínimo de posições para a colocação de dispositivos num dado polígono, de modo a que estes dispositivos consigam “ver” a totalidade do polígono. Por outro lado, o objectivo dos problemas de ocultação é a determinação do número máximo de posições num dado polígono, de modo a que quaisquer duas posições não se consigam “ver”. Infelizmente, a maior parte dos problemas de visibilidade em polígonos são NP-difíceis, o que dá origem a duas linhas de investigação: o desenvolvimento de algoritmos que estabelecem soluções aproximadas e a determinação de soluções exactas para classes especiais de polígonos. Atendendo a estas duas linhas de investigação, o trabalho é dividido em duas partes. Na primeira parte são propostos algoritmos aproximados, baseados essencialmente em metaheurísticas e metaheurísticas híbridas, para resolver alguns problemas de visibilidade, tanto em polígonos arbitrários como ortogonais. Os problemas estudados são os seguintes: “Maximum Hidden Vertex Set problem”, “Minimum Vertex Guard Set problem”, “Minimum Vertex Floodlight Set problem” e “Minimum Vertex k-Modem Set problem”. São também desenvolvidos métodos que permitem determinar a razão de aproximação dos algoritmos propostos. Para cada problema são implementados os algoritmos apresentados e é realizado um estudo estatístico para estabelecer qual o algoritmo que obtém as melhores soluções num tempo razoável. Este estudo permite concluir que as metaheurísticas híbridas são, em geral, as melhores estratégias para resolver os problemas de visibilidade estudados. Na segunda parte desta dissertação são abordados os problemas “Minimum Vertex Guard Set”, “Maximum Hidden Set” e “Maximum Hidden Vertex Set”, onde são identificadas e estudadas algumas classes de polígonos para as quais são determinadas soluções exactas e/ou limites combinatórios.
Resumo:
A aplicação de simulações de mecânica e dinâmica molecular ao estudo de sistemas supramoleculares tem adquirido, ao longo dos últimos anos, enorme relevância. A sua utilização não só tem levado a uma melhor compreensão dos mecanismos de formação desses mesmos sistemas, como também tem fornecido um meio para o desenvolvimento de novas arquitecturas supramoleculares. Nesta tese são descritos os trabalhos de mecânica e dinâmica molecular desenvolvidos no âmbito do estudo de associações supramoleculares entre aniões e receptores sintéticos do tipo [2]catenano, [2]rotaxano e pseudorotaxano. São ainda estudados complexos supramoleculares envolvendo receptores heteroditópicos do tipo calix[4]diquinona e pares iónicos formados por aniões halogeneto e catiões alcalinos e amónio. Os estudos aqui apresentados assentam essencialmente em duas vertentes: no estudo das propriedades dinâmicas em solução dos vários complexos supramoleculares considerados e no cálculo das energias livres de Gibbs de associação relativas dos vários iões aos receptores sintéticos. As metodologias utilizadas passaram por dinâmica molecular convencional e REMD (Replica Exchange Molecular Dynamics), para o estudo das propriedades em solução, e por cálculos de integração termodinâmica e MMPBSA (Molecular Mechanics – Poisson Boltzmann Surface Area), para a computação das energias livres de associação relativas. Os resultados obtidos, além de terem permitido uma visão mais detalhada dos mecanismos envolvidos no reconhecimento e associação dos vários receptores aos aniões e pares iónicos abordados, encontram-se, globalmente, de acordo com os análogos determinados experimentalmente, validando assim as metodologias empregadas. Em jeito de conclusão, investigou-se ainda a capacidade de um dos receptores heteroditópicos estudados para assistir favoravelmente na migração do par iónico KCl através da interface água-clorofórmio. Para tal, foram utilizadas simulações SMD (Steered Molecular Dynamics) para a computação do perfil de energia livre de Gibbs associada à migração do par iónico através da interface.
Resumo:
Em consequência de uma série de problemas ambientais, económicos e políticos relacionados com o uso de combustíveis convencionais, vários países estão agora a focar as suas atenções em combustíveis alternativos. O biodiesel está na linha da frente das alternativas ao petróleo no sector dos transportes, sendo considerado uma opção a curto prazo visto que o seu preço é competitivo e não são necessárias mudanças nos motores para implementar o seu uso. De entres os possíveis processos de produzir biodiesel, a reacção de transesterificação com catálise básica é o método preferido. Depois da reacção são sempre necessários processos de purificação de modo ao biodiesel produzido cumprir os standards definidos para os combustíveis alternativos, reduzindo problemas de motor e consequentemente aumentando a sua aceitação por parte dos consumidores. De entre as especificações encontram-se o conteúdo em água, em álcool e em glicerol. Ser-se capaz de descrever correctamente o equilíbrio de fases de sistemas que são de interesse para os processos de purificação de biodieseis numa gama alargada de condições termodinâmicas é uma condição necessária para uma correcta simulação do processo industrial, de modo a se atingir uma elevada produtividade a baixos custos de operação. O uso de moléculas oxigenadas como combustíveis representa uma alteração significativa em termos da termodinâmica de soluções. Para combustíveis baseados em petróleo as equações de estado cúbicas e os modelos clássicos de coeficientes de actividade mostraram ser apropriados, no entanto para combustíveis novos como o biodiesel, sendo mais complexos do ponto de vista das interacções intermoleculares com formação de dipolos e pontes de hidrogénio, são necessários modelos termodinâmicos mais complexos para descrever essas interacções. Neste trabalho a CPA EoS (Cubic-Plus-Association Equation of State) será desenvolvida de modo a permitir uma descrição adequada dos equilíbrios líquido-vapor e líquido-líquido para uma serie de sistemas binários e multicomponentes contendo água, ácidos gordos, ésteres de ácidos gordos, glicerol e álcoois.