24 resultados para Circuito Productivo
Resumo:
[ES]En el presente trabajo se diseña el circuito neumático para el accionamiento de una cuchara de colada. Se comienza con la solución menos automatizada a la que se le van añadiendo elementos para mejorar el circuito hasta llegar a la forma de funcionamiento deseada. Para su desarrollo se han realizado los circuitos de forma teórica con el programa FluidSIM y posteriormente de forma práctica en un panel neumático en el laboratorio de fluidos de la Escuela Técnica Superior de Ingeniería de Bilbao. Finalmente se presenta un ejemplo ilustrativo del dimensionamiento del cilindro neumático.
Resumo:
[ES]Este trabajo de fin de grado se basa en el diseño de un circuito neumático para una máquina conformadora. El diseño se efectúa con el programa Fluidsim. Primeramente se define un esquema de los movimientos básicos que se realiza en la conformación. Para el diseño del circuito se desarrollan dos posibles soluciones. Más tarde, se verifica su funcionamiento en el panel del Laboratorio de la Escuela de Ingenieros de Bilbao y se dimensionarán los elementos del circuito para un caso concreto. Por último, se extraerán las conclusiones pertinentes de cada circuito ensayado.
Resumo:
Duración (en horas): Más de 50 horas. Destinatario: Estudiante y Docente
Resumo:
En este trabajo se pretende realizar un breve análisis sobre los costes más importantes en la vida de la empresa. Sabemos que, aunque resulta a menudo sumamente difícil el poder controlarlos, no es menos cierto que los directivos deben intentarlo y por lo menos tenerlos en cuenta a la hora de la toma de decisiones. El estudio pormenorizado del coste es un elemento imprescindible en el desenvolvimiento diario de cada entidad, en un entorno cada vez más competitivo, llegando a ser muchas veces la clave de la supervivencia empresarial. Gracias al análisis del coste se pueden hallar conceptos económicos tan importantes como: el precio de venta, rentabilidad de cada producto o línea de producto, rendimiento de las secciones, departamentos e incluso de las actividades en que se divida la empresa, etc.
Resumo:
Duración (en horas): Más de 50 horas. Destinatario: Estudiante y Docente
Resumo:
Duración (en horas): Más de 50 horas. Destinatario: Estudiante
Resumo:
290 p.
Resumo:
IX, 721 p.
Resumo:
[ES]El proyecto investigador tiene el objeto el estudio del comportamiento de un perfil aerodinámico frente a un flujo turbulento, en este caso el aire. Se trata de evaluar las presiones que se ejercen sobre dicho perfil, que será un alerón de monoplaza tipo Formula Student, para comprobar si aporta alguna mejora en el comportamiento del monoplaza la introducción de este paquete aerodinámico. Con la introducción de este perfil en el monoplaza se pretende ganar un mayor agarre en el paso por curva siendo la resistencia al avance en recta la mínima posible, ya que lo que se pretende es hacer el recorrido del circuito en el menor tiempo posible. Por tanto hay dos variables a tener en cuenta a la hora de diseñar el alerón, por un lado esta mejorar el agarre de los neumáticos sobre el asfalto al tomar una curva, lo que nos permitirá tomar la curva a mayor velocidad y por tanto en menos tiempo, y por otro lado, la oposición que el alerón ejerce en el avance en recta disminuyendo su velocidad máxima. En resumen, se trata de comparar la fuerza horizontal y la fuerza vertical que el aire ejerce sobre el perfil aerodinámico a introducir en el monoplaza y evaluar si es beneficioso para este, es decir, si añadiendo dicho perfil se realiza el trazado del circuito en menor tiempo que sin él. Para ello se realizarán simulaciones con un software de modelado físico de flujos y turbulencias sobre un diseño de un alerón dado, con diferentes tipos de flujo, de forma que se asemeje de mejor forma a las condiciones de la pista y se obtendrán los resultados de las presiones que el flujo de aire ejerce sobre las superficies del perfil. Después se obtendrán las fuerzas puntuales vertical y horizontal y se analizaran los datos obtenidos. Deberán tenerse en cuenta, además de los resultados obtenidos, los materiales a emplear a la hora de su fabricación, el proceso de dicha fabricación y el coste que supone tanto el proceso como los materiales empleados.
Resumo:
La actividad aseguradora supone la transferencia de riesgos del asegurado al asegurador. El asegurador se compromete al pago de una prestación si el riesgo se realiza. Se produce un cambio en el ciclo productivo. El asegurador vende una cobertura sin conocer el momento y el coste exacto de dicha cobertura. Esta particularidad de la actividad aseguradora explica la necesidad para una entidad aseguradora de ser solvente en cada momento y ante cualquier imprevisto. Por ello, la solvencia de las entidades aseguradoras es un aspecto que se ha ido recogiendo en las distintas normativas que han regulado la actividad aseguradora y al que se ha ido dando cada vez más importancia. Actualmente la legislación vigente en materia de solvencia de las aseguradoras esta regulada por la directiva europea Solvencia I. Esta directiva establece dos conceptos para garantizar la solvencia: las provisiones técnicas y el margen de solvencia. Las provisiones técnicas son las calculadas para garantizar la solvencia estática de la compañía, es decir aquella que hace frente, en un instante temporal determinado, a los compromisos asumidos por la entidad. El margen de solvencia se destina a cubrir la solvencia dinámica, aquella que hace referencia a eventos futuros que puedan afectar la capacidad del asegurador. Sin embargo en una corriente de gestión global del riesgo en la que el sector bancario ya se había adelantado al sector asegurador con la normativa Basilea II, se decidió iniciar un proyecto europeo de reforma de Solvencia I y en noviembre del 2009 se adoptó la directiva 2009/138/CE del parlamento europeo y del consejo, sobre el seguro de vida, el acceso a la actividad de seguro y de reaseguro y su ejercicio mas conocida como Solvencia II. Esta directiva supone un profundo cambio en las reglas actuales de solvencia para las entidades aseguradoras. Este cambio persigue el objetivo de establecer un marco regulador común a nivel europeo que sea más adaptado al perfil de riesgo de cada entidad aseguradora. Esta nueva directiva define dos niveles distintos de capital: el SCR (requerimiento estándar de capital de solvencia) y el MCR (requerimiento mínimo de capital). Para el calculo del SCR se ha establecido que el asegurador tendrá la libertad de elegir entre dos modelos. Un modelo estándar propuesto por la Autoridad Europea de Seguros y Pensiones de Jubilación (EIOPA por sus siglas en inglés), que permitirá un calculo simple, y un modelo interno desarrollado por la propia entidad que deberá ser aprobado por las autoridades competentes. También se contempla la posibilidad de utilizar un modelo mixto que combine ambos, el estándar y el interno. Para el desarrollo del modelo estándar se han realizado una serie de estudios de impacto cuantitativos (QIS). El último estudio (QIS 5) ha sido el que ha planteado de forma más precisa el cálculo del SCR. Plantea unos shocks que se deberán de aplicar al balance de la entidad con el objetivo de estresarlo, y en base a los resultados obtenidos constituir el SCR. El objetivo de este trabajo es realizar una síntesis de las especificaciones técnicas del QIS5 para los seguros de vida y realizar una aplicación práctica para un seguro de vida mixto puro. En la aplicación práctica se determinarán los flujos de caja asociados a este producto para calcular su mejor estimación (Best estimate). Posteriormente se determinará el SCR aplicando los shocks para los riesgos de mortalidad, rescates y gastos. Por último, calcularemos el margen de riesgo asociado al SCR. Terminaremos el presente TFG con unas conclusiones, la bibliografía empleada así como un anexo con las tablas empleadas.
Resumo:
La situación económica actual, con la crisis económica y financiera de fondo y con ello la caída de una parte del sistema productivo, obliga a buscar nuevas alternativas, tanto en Euskadi como en el resto del estado, y nuevos modelos productivos y de gestión para volver a la senda del crecimiento económico. Esta situación hace que tanto la innovación como una nueva visión global del mundo empresarial se conviertan en pilares de la recuperación económica. En este contexto, las empresas de base tecnológica (EBT) cobran gran importancia ya que pueden dotar al sistema económico de la capacidad de innovación y diferenciación necesaria para el crecimiento de la industria y servicios. En este trabajo fin de grado (TFG) se analizarán la naturaleza de estas empresas y su gestión. El trabajo se ha organizado en dos partes bien diferenciadas: en la primera se hace una pequeña introducción sobre el concepto de empresa tecnológica y sus características más relevantes. En la segunda se lleva a cabo un análisis de la gestión en áreas como son la financiera y la gestión tecnológica, entre otras, en las EBTs basándose en los casos estudiados que aparecen en la bibliografía
Resumo:
El procesado digital de señales en tiempo real requiere en algunos casos el desarrollo de hardware específico de alta velocidad. Con este fin se propone el diseño de una arquitectura, su especificación usando un lenguaje de descripción del hardware (VHDL) y su verificación experimental sobre un circuito integrado de tipo FPGA. Se propone en concreto la implementación de un filtro FIR y su aplicación a señales de audio.
Resumo:
Máster en Dirección Empresarial desde la Innovación y la Internacionalización. Curso 2014/2015
Resumo:
Gordon E. Moore, cofundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración [1]. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas deseadas. Hasta hace no muchos años, dichos dispositivos eran capaces de incorporar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. El presente proyecto tiene como objetivo construir un marco de fotos digital con reloj y despertador programable, valiéndose para ello de la FPGA Cyclone II de Altera y una pantalla táctil de la casa Terasic. Con este fin, se documentará en primera instancia los dispositivos a utilizar con sus características y posibilidades que plantean, para pasar posteriormente al diseño de la aplicación y su implementación e integración en la placa para comprobar su correcto funcionamiento.
Resumo:
Gordon E. Moore, co-fundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante por dicho motivo, son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas que desee implementar el usuario. Hasta hace no muchos años, dichos dispositivos eran capaces de implementar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. Debido a la mayor capacidad y por lo tanto a diseños más complejos implementados sobre las FPGA, en los últimos años han aparecido herramientas cuyo objetivo es hacer más fácil el proceso de ingeniería dentro de un desarrollo en este tipo de dispositivos, como es la herramienta HDL Coder de la compañía MathWorks, creadores también Matlab y Simulink, unas potentes herramientas usadas ampliamente en diferentes ramas de la ingeniería. El presente proyecto tiene como objetivo evaluar el uso de dicha herramienta para el procesado digital de señales, usando para ello una FPGA Cyclone II de la casa Altera. Para ello, se empezará analizando la herramienta escogida comparándola con herramientas de la misma índole, para a continuación seleccionar una aplicación de procesado digital de señal a implementar. Tras diseñar e implementar la aplicación escogida, se deberá simular en PC para finalmente integrarla en la placa de evaluación seleccionada y comprobar su correcto funcionamiento. Tras analizar los resultados de la aplicación de implementada, concretamente un analizador de la frecuencia fundamental de una señal de audio, se ha comprobado que la herramienta HDL Coder, es adecuada para este tipo de desarrollos, facilitando enormemente los procesos tanto de implementación como de validación gracias al mayor nivel de abstracción que aporta.