992 resultados para Maquinas de calcular
Resumo:
Educadores e pesquisadores, em âmbito internacional, vêm consolidando um campo de estudo a Educação Estatística. Suas principais discussões elucidam a importância da Estatística nas diversas áreas de conhecimento, em contraste à incompreensão de seu ensino descontextualizado e focado em cálculos. Para retratar essa realidade delineou-se essa pesquisa, com objetivo de identificar as habilidades e competências, atinentes ao Letramento Estatístico. Aplicou-se um instrumento com 20 itens em uma amostra de 200 estudantes. Ao realizar a análise de dados constatou-se que apresentaram mais habilidades para fazer inferências a partir de informações expressas em gráficos e para calcular medidas estatísticas. Já suas habilidades para resolver situações problemas e interpretar medidas estatísticas, são menores. A partir dessa pequisa, pode-se observar que as competências esperadas ainda não são plenamente contempladas, justificando a continuidade das pesquisas a fim de diagnosticar e nortear ações na Educação Estatística.
Resumo:
Se hace un estudio algebraico y geométrico de los campanoides, nuevos objetos basados en los polígonos regulares, se definen, clasifican y muestra el proceso de su construcción. En este trabajo analizo específicamente el Campanoide Triangular indicando sus características, modelo algebraico que lo define y la ecuación para calcular su ´área en términos de la base, al final se muestran unos mosaicos construidos con estos campanoides.
Resumo:
Este video muestra la idea intuitiva de límite de una función en un punto. Además muestra un par de casos típicos en los que es interesante calcular el límite.
Resumo:
Con base en un análisis de los lineamientos curriculares, los estándares básicos de competencia y algunos estudios e investigaciones sobre la variación asociada al estudio de la trigonometría plana, decidimos aplicar la técnica del análisis de contenido a algunos libros de texto del grado décimo frente al tipo de ejercicios y “problemas” que se proponen para abordar el estudio de las relaciones trigonométricas; este análisis muestra que generalmente esta temática se desarrolla a través de expresiones algebraicas para calcular datos fijos y desconocidos de un triángulo. Estos resultados muestran la necesidad de diseñar propuestas alternativas en las cuales se haga hincapié en la visualización de relaciones “dinámicas” y funcionales entre los ángulos y los lados de un triángulo.
Resumo:
El último de los problemas propuesto a los lectores en el Tratado de Huygens, publicado por primera vez en 1657, es hoy día conocido como el problema de la ruina del jugador. Dicho problema consiste en calcular la probabilidad de que un jugador arruine al contrario en un juego a un número indeterminado de partidas, cuando los dos jugadores inician el juego con un cierto número de monedas cada uno. A priori, su enunciado asusta cuando se enfrenta por primera vez, pero puede ser un buen recurso didáctico para profesores que enseñan cálculo de probabilidades a estudiantes de un determinado nivel, dada la resolución elegante y cómoda que se dispone, sin necesidad de un gran aparato matemático. La autoría del problema, tradicionalmente asignada a Huygens, la resolución de éste, la de De Moivre de 1712, así como una resolución más actual y cercana al estudiante del mismo, forman parte del contenido de este artículo.
Resumo:
Es un hecho indudable que vivimos en una sociedad que nos requiere, cada vez más, interactuar con una serie de códigos numéricos. En este trabajo se pretende analizar las características de algunos de estos códigos -DNI-NIF, códigos de barras, códigos ISBN, códigos ISSN, códigos de tarjetas de crédito, de cuentas bancarias, de cheques bancarios- haciendo especial hincapié en los algoritmos que permiten calcular su carácter de control a partir de los demás elementos del código y en la forma que tienen estos códigos de hacer frente a los errores más frecuentes en la transmisión de los mismos. Además se estudian sus posibilidades didácticas y se ofrece una aplicación informática al aula de secundaria a través de una WebQuest, creada por el autor, sobre el tema.
Resumo:
El próximo mes de junio cerraré, al menos por el momento, esta sección y me gustaría despedirme con el relato de una historia muy especial. A lo largo de casi treinta años de profesión he ido guardado en un arcón, como los piratas de antaño, un montón de joyas encontradas en mis travesías matemáticas, logrando acumular un botín bastante suculento. Una de mis piezas favoritas es esta historia, una historia que ojalá me hubiesen contado cuando me enseñaron por primera vez los rudimentos del álgebra lineal. De hecho, si hoy tuviese que impartir clase de álgebra lineal en bachillerato o en un primer curso de cualquier carrera científica o técnica y se me permitiese hacerlo a mi manera, articularía mis clases en torno a esta historia. Sus distintos episodios, todos ellos verídicos, me han ido llegando a través de los años de la mano del matemático Mario Fernández Barberá, del escultor José Luis Alexanco y del poeta Ramón Mayrata.
Resumo:
El trabajo que hemos desarrollado en este artículo es un estudio de un método histórico desarrollado por Descartes para calcular la recta normal a una curva, y que puede ser aprovechado para calcular derivadas puntuales y generales de funciones. El método, requiere de la resolución de ecuaciones algebraicas y transcendentes, que en principio pueden ser complicadas (por eso ha caído en el olvido), pero que permite introducir en el aula una gran cantidad de aspectos docentes. Además, la idea en la que se fundamenta el método de Descartes puede ser aprovechada para calcular la distancia de un punto a una recta o un plano.
Resumo:
En este trabajo se presenta un juego que sirva para introducir trabajar el concepto de probabilidad. Puede utilizarse en alumnos que no conozcan dicho concepto, basándose en la noción intuitiva de probabilidad, o bien, en aquellos alumnos que si sepan calcular las probabilidades de los sucesos que aparecen en el juego.
Resumo:
Las fórmulas que empleamos para calcular el área de una superficie geométrica se basan en las medidas de longitudes de esas figuras, con el peligro de que se considere la superficie como una magnitud derivada de la longitud. Pero además estas fórmulas para el calculo de áreas dependen de la forma geométrica que se ha elegida como unidad de superficie: el cuadrado. Aunque esta elección es adecuada desde un punto de vista practico, si queremos formar mentes que sean capaces de resolver problemas mas generales y comprender el concepto de superficie sin reducir su calculo a la mera aplicación de una fórmula, debemos indicar Opciones alternativas y una de ellas puede ser relativizar la elección de la unidad de medida. En este artículo hemos tomado como unidad de superficie un triangulo equilátero de lado unidad con el cual hemos revisado y mostrado la relatividad del proceso de cálculo de superficies áreas de figuras planos.
Resumo:
El uso de agroquímicos en Argentina se ha fortalecido junto con la expansión agrícola. El objetivo de este trabajo es la elaboración de una metodología para calcular el impacto ambiental que los pesticidas causan en el medio ambiente teniendo en cuenta los siguientes factores: "ecotoxicología": categoría toxicológica, toxicidad en abejas, aves y peces; "Toxicidad humana": carcinogenicidad, neurotoxicidad, alteraciones endocrinas, genotoxicidad y capacidad irritativa; "Comportamiento ambiental": la persistencia en el agua / sedimento, persistencia en el suelo y bioconcentración. Estos factores fueron clasificados como bajo, medio, alto o muy alto, de acuerdo con su nivel de toxicidad. Los resultados indican que los plaguicidas más tóxicos son los insecticidas. La mayoría de los pesticidas utilizados son la toxicidad media (43,75%), seguido de baja y alta toxicidad (21,88%) y, los de muy alta toxicidad (12,5%). La metodología propuesta podría ser utilizada como una herramienta de monitoreo, gestión o educación ambiental.
Resumo:
Em todo o mundo são usados, hoje em dia, modelos numéricos hidrogeoquímicos para simular fenómenos naturais e fenómenos decorrentes de actividades antrópicas. Estes modelos ajudam-nos a compreender o ambiente envolvente, a sua variabilidade espacial e evolução temporal. No presente trabalho apresenta-se o desenvolvimento de modelos numéricos hidrogeoquímicos aplicados no contexto do repositório geológico profundo para resíduos nucleares de elevada actividade. A avaliação da performance de um repositório geológico profundo inclui o estudo da evolução geoquímica do repositório, bem como a análise dos cenários de mau funcionamento do repositório, e respectivas consequências ambientais. Se se escaparem acidentalmente radionuclídeos de um repositório, estes poderão atravessar as barreiras de engenharia e barreiras naturais que constituem o repositório, atingindo eventualmente, os ecosistemas superficiais. Neste caso, os sedimentos subsuperficiais constituem a última barreira natural antes dos ecosistemas superficiais. No presente trabalho foram desenvolvidos modelos numéricos que integram processos biogeoquímicos, geoquímicos, hidrodinâmicos e de transporte de solutos, para entender e quantificar a influência destes processos na mobilidade de radionuclídeos em sistemas subsuperficiais. Os resultados alcançados reflectem a robustez dos instrumentos numéricos utilizados para desenvolver simulações descritivas e predictivas de processos hidrogeoquímicos que influenciam a mobilidade de radionuclídeos. A simulação (descritiva) de uma experiência laboratorial revela que a actividade microbiana induz a diminuição do potencial redox da água subterrânea que, por sua vez, favorece a retenção de radionuclídeos sensíveis ao potencial redox, como o urânio. As simulações predictivas indicam que processos de co-precipitação com minerais de elementos maioritários, precipitação de fases puras, intercâmbio catiónico e adsorção à superfície de minerais favorecem a retenção de U, Cs, Sr e Ra na fase sólida de uma argila glaciar e uma moreia rica em calcite. A etiquetagem dos radionuclídeos nas simulações numéricas permitiu concluir que a diluição isotópica joga um papel importante no potencial impacte dos radionuclídeos nos sistemas subsuperficiais. A partir dos resultados das simulações numéricas é possivel calcular coeficientes de distribuição efectivos. Esta metodologia proporciona a simulação de ensaios de traçadores de longa duração que não seriam exequíveis à escala da vida humana. A partir destas simulações podem ser obtidos coeficientes de retardamento que são úteis no contexto da avaliação da performance de repositórios geológicos profundos.
Resumo:
Tal como o título indica, esta tese estuda problemas de cobertura com alcance limitado. Dado um conjunto de antenas (ou qualquer outro dispositivo sem fios capaz de receber ou transmitir sinais), o objectivo deste trabalho é calcular o alcance mínimo das antenas de modo a que estas cubram completamente um caminho entre dois pontos numa região. Um caminho que apresente estas características é um itinerário seguro. A definição de cobertura é variável e depende da aplicação a que se destina. No caso de situações críticas como o controlo de fogos ou cenários militares, a definição de cobertura recorre à utilização de mais do que uma antena para aumentar a eficácia deste tipo de vigilância. No entanto, o alcance das antenas deverá ser minimizado de modo a manter a vigilância activa o maior tempo possível. Consequentemente, esta tese está centrada na resolução deste problema de optimização e na obtenção de uma solução particular para cada caso. Embora este problema de optimização tenha sido investigado como um problema de cobertura, é possível estabelecer um paralelismo entre problemas de cobertura e problemas de iluminação e vigilância, que são habitualmente designados como problemas da Galeria de Arte. Para converter um problema de cobertura num de iluminação basta considerar um conjunto de luzes em vez de um conjunto de antenas e submetê-lo a restrições idênticas. O principal tema do conjunto de problemas da Galeria de Arte abordado nesta tese é a 1-boa iluminação. Diz-se que um objecto está 1-bem iluminado por um conjunto de luzes se o invólucro convexo destas contém o objecto, tornando assim este conceito num tipo de iluminação de qualidade. O objectivo desta parte do trabalho é então minimizar o alcance das luzes de modo a manter uma iluminação de qualidade. São também apresentadas duas variantes da 1-boa iluminação: a iluminação ortogonal e a boa !-iluminação. Esta última tem aplicações em problemas de profundidade e visualização de dados, temas que são frequentemente abordados em estatística. A resolução destes problemas usando o diagrama de Voronoi Envolvente (uma variante do diagrama de Voronoi adaptada a problemas de boa iluminação) é também proposta nesta tese.
Resumo:
O objectivo deste trabalho é estudar a circulação da água na Ria de Aveiro, contribuindo para o conhecimento da qualidade da sua água. É apresentada a caracterização morfológica e hidrológica da Ria, pondo em evidência a complexidade da sua morfologia e o carácter lagunar desta massa de água, que é justificado pelo reduzido caudal de água proveniente dos rios. O balanço do volume de água no ciclo semi-diurno de maré permitiu calcular caudais e percursos de maré. É analisada a variação de volume de ciclo quinzenal e discutida a importância das correntes residuais no transporte de substâncias na Ria. É apresentado um método de amostragem para determinar salinidades médias em segmentos dos canais da Ria, que admite condições quase estacionárias. Foram calculados os tempos de residência da água doce nos segmentos dos canais, tendo-se obtido tempos baixos próximo da barra, que aumentam para o interior dos canais. Foram realizadas observações de correntes de maré, de salinidade e de concentração de partículas em suspensão, em duas secções do canal que vai até ao Largo do Laranjo. Os resultados obtidos são compatíveis com a existência de circulação residual no ramo da Murtosa, predominando a corrente de enchente no sul e nascente, e a de vazante no norte e poente. O predomínio do gradiente longitudinal de salinidade indica também que o transporte dispersivo é importante. A concentração de partículas em suspensão está relacionada com a velocidade da corrente, indicando que a deposição e a ressuspensão alternam. O aumento da concentração média de partículas quando a salinidade diminui revela a influência do sedimento transportado pelos rios. O balanço de substâncias resultante do transporte entre os segmentos dos canais foi representado por um modelo de segmentos de prisma de maré. Os valores dos coeficientes de retorno entre os segmentos foram calibrados por um procedimento automático, baseado nas salinidades médias observadas. O modelo simula com exito a evolução do campo médio de salinidade durante períodos longos.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.