94 resultados para Ingeniería de computadores
Resumo:
En el discurso se reivindica el papel actual de la ingeniería mecánica como impulsora del desarrollo de las máquinas. Comienza con una breve exposición de la evolución de las máquinas a lo largo de la historia y su influencia en el desarrollo económico y social. Igualmente, señala la importancia de otras áreas de la ingeniería en el desarrollo de las máquinas actuales y el carácter multidisciplinar del diseño y desarrollo de las máquinas actuales. Ante la nueva situación, el discurso analiza el papel que desempeña actualmente la ingeniería de máquinas. Asimismo, comprueba que la aportación de otras disciplinas ha llevado a la concepción de máquinas con soluciones, más eficientes y eficaces, que requieren nuevos avances de la ingeniería de máquinas. Finalmente, se muestran diversos ejemplos significativos de los avances requeridos para el diseño de las máquinas actuales, entre los que destacan los relativos al análisis dinámico y a la fatiga. Entre los problemas dinámicos, se analizan los casos del comportamiento de sistemas multicuerpos con holgura o sujetos a impactos, y la detección de grietas en rotores mediante la medida de vibraciones. Del análisis del comportamiento a fatiga, se destaca la importancia de la aplicación conjunta de la mecánica de la fractura y el método de las deformaciones locales, especialmente para el análisis del comportamiento de grietas microestructuralmente pequeñas.
Resumo:
En esta introducción se resumen los avatares superados por la Real Academia de Ingeniería hasta conseguir la adjudicación del actual edificio. Alrededor del último cuarto del siglo xx se produjo un movimiento mundial de reconocimiento del papel de la Ingeniería como factor de progreso, que se materializó en la creación de Academias de Ingeniería en numerosos países. La Academia de Ingeniería española fue fundada por S. M. el Rey Juan Carlos I mediante Real Decreto el 29 de abril de 1994 a propuesta del Ministro D. Gustavo Suárez Pertierra. Sus primeros treinta y seis miembros fueron designados por el Ministerio de Educación y Ciencia a propuesta del Instituto de la Ingeniería de España (18 Académicos), las Universidades (7), el Instituto de España ( 6) y la Secretaría de Estado de Universidades e Investigación (5).Desde 1994 a 1998 la Academia estuvo bajo el protectorado del Ministerio de Educación. La Presidencia era ostentada por el Secretario de Estado y, por delegación, por el Académico Excmo. Sr. D. Elías Fereres. Durante estos años se llevaron a cabo numerosas reuniones con el fin de establecer el Reglamento de Régimen Interior, generalmente celebradas en la Escuela de Caminos usando la antigua Sala de Profesores y otros lugares para reuniones esporádicas, como el Consejo Superior de Investigaciones Científicas, el Instituto Eduardo Torroja de Ciencias de la Construcción, etc. Los problemas comenzaron cuando, aprobado el Reglamento, se empezó a elegir a los primeros Académicos Numerarios y se planteó la selección de una sala digna para los actos de ingreso. Afortunadamente, la Escuela Técnica Superior de Ingenieros de Minas de la Universidad Politécnica de Madrid ofreció su espléndido salón de actos para que se celebraran las tomas de posesión y, a partir de entonces, fue utilizado a menudo. Al cumplirse los cuatro primeros años desde la fundación terminó la etapa de protectorado de Ministerio de Educación y el 19 de enero de 1999 se procedió a la elección de la primera Junta de Gobierno autónoma y se acentúo la necesidad de una nueva Sede, entre otras razones por el incremento de los actos públicos de la Academia, la toma de posesión de nuevos Académicos Numerarios y la necesidad de crear una imagen institucional.
Resumo:
"Van pudiendo por creer que pueden", dice Virgilio de la tripulación de Mnesteo durante la regata en honor de Anquises, y no se me ocurre mejor descripción de nuestro avance durante la primera mitad del año en que estamos celebrando el décimo aniversario de nuestra fundación: todos los compañeros y en especial los responsables de organización de las Jornadas Conmemorativas se están volcando para conseguir superar las limitaciones de una Academia joven y mostrar la fuerza de la ingeniería española.
Resumo:
En este último Mensaje como Presidente envío mi agradecimiento a todos los amigos de instituciones, empresas y universidades que han sabido comprender lo importante que, para España, es llevar a buen término el desarrollo de esta Academia y a todos los Académicos que han sufrido con paciencia mis errores y siempre han respondido, con generosidad , a mis demandas de su tiempo. Finalmente mi reconocimiento a la labor de los compañeros de la Junta de Gobierno cuya inteligencia, vocación de servicio y capacidad de trabajo sólo son comparables a la lealtad demostrada durante estos años en que he tenido el privilegio de trabajar a su lado.
Resumo:
El artículo presenta la actividad científica desarrollada en los congresos internacionales de ingeniería de proyectos organizados por AEIPRO. Analizando y visualizando la información a través del análisis de dominios científicos y del análisis de redes de la literatura científica desarrollada desde el II Congreso Internacional del 1998 hasta el XVI Congreso Internacional del 2012. Los resultados permiten identificar los frentes de investigación y la base de conocimientos científica en Ingeniería de Proyectos desarrollada en los congresos internacionales de AEIPRO, proporcionando resultados estadísticos sobre la distribución del aporte internacional, el grado de integración de la investigación y la colaboración científica entre universidades, instituciones científicas y profesionales. Finalmente, se realiza una comparación entre la distribución de la investigación según la temática actual de los congresos y las áreas de conocimientos que gestionan el ciclo de vida del proyecto, alcance, tiempo, costes, calidad, recursos humanos, comunicación, riesgos y adquisiciones.
Resumo:
El LPF_TAGRALIA es un grupo de investigación reconocido de la UPM que trabaja en diversos ámbitos de la Ingeniería Agroforestal y de Biosistemas, entre los que se encuentra el análisis de emisiones de vehículos agrícolas, y el análisis de la calidad y la eficiencia energética en el transporte a larga distancia de productos perecederos, colaborando asimismo con una variedad de grupos y centros de investigación nacionales e internacionales. El primero de estos temas: análisis de emisiones de vehículos agrícolas, es objeto de estudio en el LPF_TAGRALIA desde hace aproximadamente diez años, cuando se materializa y cobra relevancia la aplicación del standard TIER de la agencia de protección ambiental americana (EPA) cuyo disparo de salida tuvo lugar en 1996 con la publicación del TIER I. La adopción en USA y Europa de este standard que regula las emisiones de CO, óxidos de Nitrógeno y 2 partículas de materia de diversa naturaleza (PM) se está produciendo de manera paulatina en función de la potencia de matriculación de los tractores (vehículos de fuera de carretera, off-road vehicles). En la actualidad el standard TIER IV ha de ser verificado mayoritariamente por los tractores, para lo cuál existen dos estrategias básicas: la recirculación de gases de escape (EGR), y la reducción catalítica selectiva (SCR). La verificación del funcionamiento en campo de estas estrategias ha sido materia de análisis y discusión por parte del LPF_TAGRALIA que ejerce desde hace 4 años la labor de Responsable de Ensayos de Campo para el suplemento Maq-Vida Rural, una de las publicaciones más reconocidas por los técnicos que desarrollan su labor en el ámbito de la Ingeniería Rural; los diversos documentos relacionados pueden consultarse en el servicio de acceso abierto también denominado Archivo Digital de la UPM (http://oa.upm.es/).
Resumo:
En esta obra se recoge el discurso que pronunció D. Roberto Fernández de Caleya al ser nombrado miembro de la Academia de Ingeniería y la contestación de Martín Pereda, donde recuerda y analiza la trayectoria vital y académica del nuevo académico.
Resumo:
La Academia de Ingeniería fue fundada como Corporación de Derecho Público por Real Decreto de S. M. Juan Carlos I el 29 de abril de 1994 y recibió el título de «real» el 14 de julio de 2003. Según indican sus estatutos, se trataba de crear una entidad activa y cualificada en la prospección y análisis crítico de la evolución científica y técnica con capacidad de aconsejar tanto a organismos del Estado como a la sociedad en general. La promoción de la calidad y la competencia de la ingeniería es el objetivo permanente de la RAI. Se intenta cumplir con él actuando en varios frentes. En primer lugar reconociendo el mérito: el de las personas mediante su elección como miembros de la Academia, el de las empresas mediante el Premio Academiae Dilecta, y el de los estudiosos mediante el Premio a los Investigadores Jóvenes. Se han creado foros de discusión, siguiendo diferentes formatos, para tratar sobre grandes temas de actualidad, tales como la aventura aeroespacial, la biotecnología, la seguridad frente a incendios en los túneles, la energía, el impacto medioambiental de las obras de ingeniería y el futuro de las grandes infraestructuras. También es una labor de estímulo de la calidad y competencia la edición de las Comunicaciones a la Academia, donde se remarca la importancia de la innovación invitando a equipos jóvenes a que presenten logros de la ingeniería española que hayan dado lugar a algún resultado tangible y no meramente especulativo. Satélites, nanotecnología, bioingeniería, comunicaciones, etc., son algunos de los temas de las comunicaciones publicadas hasta ahora. Otro delos fines de la Academia, según el artículo 3 de sus estatutos fundacionales es "elaborar y mantener actualizado un lexicón en lengua castellana de términos relativos a la ingeniería", y sobre ello trata este capítulo.
Resumo:
Los métodos numéricos aplicados al estudio de estructuras sometidas a esfuezos de origen sísmico han sido utilizados habitualmente en ingeniería. La limitación tradicional con que se encontraba el analista radicaba en el enorme esfuerzo de cálculo mecánico necesario para obtener respuestas significativas tan pronto como el modelo matemático a analizar presentaba una cierta complejidad. Esta situación se vió sustancialmente modificada por la aparición del ordenador que, justamente, libera al proyectista del trabajo repetitivo irracional y permite dedicar tiempo a la reflexión, a la par que aumenta espectacularmente la capacidad de modelado. No es extraño pues, que en los ultimos 30 años se haya asistido a un renacimiento de una rama de la Matemática que parecía agostada y que ,fecundada por la nueva herramienta ha florecido en un sinf{n de técnicas y procedimientos que ponen al alcance del ingeniero el análisis de virtualmente, cualquier problema estructural. En este capítulo se pretende exponer algunas de las ideas subyacentes en estos métodos nuevos así como su posible aplicación al campo que nos interesa. Evidentemente, la limitación de espacio impedirá profundizar adecuadamente en los temas, pero la finalidad última será dotar al estudioso de un marco general en el que situar posteriores aventuras intelectuales. El contenido se articula en tres grupos principales que se refieren, respectivamente al modelado de la solicitación sísmica, de la estructura y cimiento, y al análisis de la respuesta. Tras lo dicho anteriormente, una exposición que no incluyese alguna manifestación palpable de la influencia de la máquina, estaría indefectiblemente esviada. Por ello, se incluyen como apéndices cuatro bloques de subrutinas; dos de ellas, en lenguaje Basic de microordenador, se refeiren a la transformada rápida de Fourier de la que se hablará más adelante, y al cálculo de autovalores de estructuras formadas por barras; la tercera es un pequeño programa en Fortran IV, que permite obtener la respuesta de un sistema de un grado de libertad por un método de integracidn paso a paso. En el primer apartado se inserta tambien un programa de determinación de hipocentros. Todas las subrutinas son elementales y ampliamente mejorables. Creemos sin embargo que ello las hace especialmente legibles lo que puede impeler su uso y mejora par el estudiante ; intervención, en definitiva ,deseada y que es el más importante objetivo al que aspiramos.
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
Los cortes de alimentación eléctrica del pasado verano han enfrentado a grandes masas de población con la estupefacción que se siente si hay accidentes en sistemas cuya fiabilidad es tan grande que el uso consuetudinario nos ha acostumbrado a indignarnos si la probabilidad de fallo se convierte en certeza y descubrimos que esa fiabilidad no es infinita. Quiero decir con ello que hemos ido incorporando a nuestros hábitos las ventajas que produce el uso de nuevas aplicaciones de los avances científicos y técnicos que la ingeniería, siguiendo su tradición de progreso continuo y protagonismo público nulo, ha ido poniendo a nuestra disposición y, como pasa siempre, solo valoramos lo que damos por descontado que tenemos cuando dejamos de poseerlo.
Resumo:
En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.
Resumo:
La Ingeniería del Software (IS) Empírica adopta el método científico a la IS para facilitar la generación de conocimiento. Una de las técnicas empleadas, es la realización de experimentos. Para que el conocimiento obtenido experimentalmente adquiera el nivel de madurez necesario para su posterior uso, es necesario que los experimentos sean replicados. La existencia de múltiples replicaciones de un mismo experimento conlleva la existencia de numerosas versiones de los distintos productos generados durante la realización de cada replicación. Actualmente existe un gran descontrol sobre estos productos, ya que la administración se realiza de manera informal. Esto causa problemas a la hora de planificar nuevas replicaciones, o intentar obtener información sobre las replicaciones ya realizadas. Para conocer con detalle la dimensión del problema a resolver, se estudia el estado actual de la gestión de materiales experimentales y su uso en replicaciones, así como de las herramientas de gestión de materiales experimentales. El estudio concluye que ninguno de los enfoques estudiados proporciona una solución al problema planteado. Este trabajo persigue como objetivo mejorar la administración de los materiales experimentales y replicaciones de experimentos en IS para dar soporte a la replicación de experimentos. Para satisfacer este objetivo, se propone la adopción en experimentación de los paradigmas de Gestión de Configuración del Software (GCS) y Línea de Producto Software (LPS). Para desarrollar la propuesta se decide utilizar el método de investigación acción (en inglés action research). Para adoptar la GCS a experimentación, se comienza realizando un estudio del proceso experimental como transformación de productos; a continuación, se realiza una adopción de conceptos fundamentada en los procesos del desarrollo software y de experimentación; finalmente, se desarrollan un conjunto de instrumentos, que se incorporan a un Plan de Gestión de Configuración de Experimentos (PGCE). Para adoptar la LPS a experimentación, se comienza realizando un estudio de los conceptos, actividades y fases que fundamentan la LPS; a continuación, se realiza una adopción de los conceptos; finalmente, se desarrollan o adoptan las técnicas, simbología y modelos para dar soporte a las fases de la Línea de Producto para Experimentación (LPE). La propuesta se valida mediante la evaluación de su: viabilidad, flexibilidad, usabilidad y satisfacción. La viabilidad y flexibilidad se evalúan mediante la instanciación del PGCE y de la LPE en experimentos concretos en IS. La usabilidad se evalúa mediante el uso de la propuesta para la generación de las instancias del PGCE y de LPE. La satisfacción evalúa la información sobre el experimento que contiene el PGCE y la LPE. Los resultados de la validación de la propuesta muestran mejores resultados en los aspectos de usabilidad y satisfacción a los experimentadores. ABSTRACT Empirical software engineering adapts the scientific method to software engineering (SE) in order to facilitate knowledge generation. Experimentation is one of the techniques used. For the knowledge generated experimentally to acquire the level of maturity necessary for later use, the experiments have to be replicated. As the same experiment is replicated more than once, there are numerous versions of all the products generated during a replication. These products are generally administered informally without control. This is troublesome when it comes to planning new replications or trying to gather information on replications conducted in the past. In order to grasp the size of the problem to be solved, this research examines the current state of the art of the management and use of experimental materials in replications, as well as the tools managing experimental materials. The study concludes that none of the analysed approaches provides a solution to the stated problem. The aim of this research is to improve the administration of SE experimental materials and experimental replications in support of experiment replication. To do this, we propose the adaptation of software configuration management (SCM) and software product line (SPL) paradigms to experimentation. The action research method was selected in order to develop this proposal. The first step in the adaptation of the SCM to experimentation was to analyse the experimental process from the viewpoint of the transformation of products. The concepts were then adapted based on software development and experimentation processes. Finally, a set of instruments were developed and added to an experiment configuration management plan (ECMP). The first step in the adaptation of the SPL to experimentation is to analyse the concepts, activities and phases underlying the SPL. The concepts are then adapted. Finally, techniques, symbols and models are developed or adapted in support of the experimentation product line (EPL) phases. The proposal is validated by evaluating its feasibility, flexibility, usability and satisfaction. Feasibility and flexibility are evaluated by instantiating the ECMP and the EPL in specific SE experiments. Usability is evaluated by using the proposal to generate the instances of the ECMP and EPL. The results of the validation of the proposal show that the proposal performs better with respect to usability issues and experimenter satisfaction.