961 resultados para Circuito capacitivo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las dinámicas que se desarrollan en la cuenca del Golfo San Jorge especialmente en la ciudad de Comodoro Rivadavia, han dado origen a una 'economía de localización' caracterizada por la especialización y concentración geográfica de la actividad vinculada al circuito petrolero, que favorece la innovación, el progreso técnico y el crecimiento, especialmente de los servicios petroleros. La proximidad geográfica permite la realización de actividades de complementación, cooperación, capacitación, organización; y por lo tanto alcanzar mejores niveles de competitividad, también genera dependencias vinculadas a la subcontratación. Parte de estas actividades, desarrolladas al interior del clúster generan tensiones de difícil resolución y que contrastan con las sinergias propias de un clúster cohesionado. El análisis se aborda desde la sociología (Bourdieu, 1993; Robbins, 1994) analizando la fragmentación y los conflictos sociales que son consecuencia de la desigualdad social, en términos generales. No dejando de lado la concepción de stakeholder para interpretar las posiciones y las lógicas de los diferentes actores en conflicto (Weiss, 2003) La metodología está centrada en la instrumentación del conflicto a través de protestas de los grupos vinculados con la actividad petrolera (piquetes, paros), que forman parte de la realidad de la cuenca (tanto en el flanco sur como en el norte), asociándolos con base de información georreferenciada. Los resultados dan cuenta de los principales actores en conflicto: sindicatos versus empresas petroleras o cámaras empresarias, localizaciones, modo de resolverlos y duración, en el último lustro

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El siguiente trabajo analizará el desarrollo de la educación técnica en Argentina desde principios del Siglo XX hasta 1955, año de la caída del segundo gobierno de Perón en manos de la autodenominada "Revolución Libertadora". Nos centraremos específicamente en el período que abarca desde 1944 (año de creación de la Comisión Nacional de Aprendizaje y Orientación Profesional) hasta 1955. Realizaremos -en un primer momento- una reconstrucción historiográfica sobre la expansión de dicha modalidad educativa hasta 1944; sobre cuáles fueron los actores involucrados y cuáles sus preocupaciones. Luego describiremos qué fue la CNAOP y cuál fue el contexto histórico del surgimiento de dicha comisión. En un segundo momento analizaremos cuál fue la relación entre la creación de la CNAOP por parte de Perón -a través de la Secretaría de Trabajo y Previsión- y la lectura política que éste hiciera sobre el periodo histórico estudiado. Para ello utilizaremos uno de los discursos más representativos -a nuestro entender- de este periodo: el discurso en la Bolsa de Comercio del 25 de agosto de 1944. Por último nos detendremos especialmente en la institución que sería la máxima expresión del circuito de educación técnica instaurado por el peronismo: la Universidad Obrera Nacional. Analizaremos cómo fue su funcionamiento -desde una dimensión normativa- y qué tipo de sujeto pedagógico se trató de configurar en dicha institución, a través de una serie de mitos y rituales fundamentados en la llamada "Doctrina Nacional Peronista". Para llevar adelante esta tarea utilizaremos como fuentes la Ley 13229 -que sancionara la creación de dicha casa de altos estudios-, el debate parlamentario en torno a la misma y la revista de la Universidad Obrera Nacional, editada entre septiembre de 1953 y agosto de 1955. Para finalizar presentaremos las conclusiones a las cuales ha arribado el presente trabajo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Pedagogía y la formación docente se encuentran en la actualidad interpeladas por la crisis de los sistemas educativos en América Latina. Esta situación habilita la reflexión en torno a nuevas definiciones acerca de qué lugar le cabe a la educación en la sociedad actual y la configuración de un campo del saber cuyas fronteras se muestran cada vez más dinámicas y en expansión. Mis búsquedas giran en torno a la preocupación sobre la articulación saberes de la pedagogía y saberes de otras disciplinas en la enseñanza. Qué repertorio pedagógico debe conocer un estudiante de las ciencias exactas por ejemplo, para convertirse en docente? Cómo encontrar los modos de iniciar relaciones dialógicas en la formación de profesionales? Cómo favorecer la transmisión del saber docente a quienes no asumen la docencia como principal interés? Qué debe poner a disposición de los estudiantes una cátedra de pedagogía que forma docentes? Qué debe conocer el pedagogo para hacer buenas intervenciones profesionales? Se garantizan buenas prácticas profesionales si sólo se trabaja en pos de la meritocracia académica? El inicio de un recorrido por algunos de los principales debates actuales en torno a la formación profesional, nos ayudarán a intentar respuestas a estos interrogantes.Al mismo tiempo, me pregunto cómo dejar de lado cierta sacralización de los saberes de la pedagogía, los usos y costumbres de su escritura a fin de poder mantener mejores encuentros con los actores del sistema. Sabemos la valoración del saber en el circuito académico está alejado de la valoración en el espacio escolar, en algunas ocasiones la dificultad para encontrarnos con el otro, para leer su realidad desde las Universidades hace dificultosa la transmisión. Solemos encontrar estudiantes de profesorados que piensan la educación despojada de responsabilidad política propia de la práctica de enseñanza. Es allí dónde llamamos la atención y asumimos la importancia que le cabe a la formación profesional ante las nuevas demandas sociales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo analiza el sistema de comercialización del ganado introducido en Buenos Aires para consumo de la ciudad y para los saladeros durante las décadas de 1830 y 1840, a partir del estudio de las normativas y soportes de infraestructura que posibilitaron un flujo constante y regular de transacciones desde la producción al punto de consumo. Se identifican las principales regiones de procedencia de los vacunos, la organización, y evolución de los mercados hasta su destino final. Se coloca también el acento en los principales actores que intervienen en dicho circuito como vendedores, conductores y compradores de las reses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo incluye algunos resultados obtenidos a partir de la realización de las primeras entrevistas piloto de carácter exploratorio efectuadas con el método clínico crítico piagetiano, a 13 chicos/as de entre 8 y 12 años. Las mismas se orientaron a explorar las ideas de los niños acerca de la producción de noticias/prácticas mediáticas y la información se obtuvo por medio del diálogo y el pedido elaboración de dibujos. Las primeras reflexiones acerca de dicho material exploratorio orientarían a pensar en tres dimensiones de análisis. La primera se refiere a que el modo en que los chicos/as se representan las noticias aparece fuertemente marcado a través del medio televisivo. En una investigación reciente acerca de la relación entre medios masivos de comunicación y escuela (Nakache, D. 2000) se visualizó la televisión como el principal dispositivo considerado por los chicos/as, que ejerce una gran influencia en sus prácticas cotidianas, actividades recreativas, juegos y modos de hablar (jergas). Nos preguntamos si la pregnancia de la televisión a la hora de concebir el acceso a las noticias tiene relación, o bien con el poder de ilusión de realidad de la imagen, o bien con que simplemente la televisión es el medio más consumido, o bien ambas posibilidades a la vez. A su vez, como segunda dimensión en nuestras primeras reflexiones, se notaría que lo noticiable para este grupo de chicos se habría referido a hechos catastróficos como robos y fenómenos naturales excepcionales. En este sentido, Pierre Bourdieu (1996) postula que la televisión, a la hora de emitir noticias, seleccionaría o buscaría lo sensacional o espectacular caracterizándolo con 'palabras extraordinarias'. La tercera dimensión surge de la observación de cierta preponderancia en las conceptualizaciones de los chicos acerca del proceso de producción de noticias que indica que muchos conciben la producción de las noticias como un simple proceso sin considerar mediaciones entre el hecho y la noticia. En este sentido, de lo que se trataría en relación con los medios de comunicación, es de la transmisión de información en bruto sin mayores intenciones por parte del emisor más que la de informar a un receptor que decodificaría el mensaje. Estaríamos hablando de una mirada ingenua acerca de la producción de noticias que no considera la intencionalidad del discurso a la hora de producir noticias. Según Charaudeau, la misma se sustenta en un modelo de comunicación que sólo considera un emisor, un receptor y una instancia de transmisión que media entre ambos, siendo todos los problemas de transmisión externos al propio mecanismo, creándose una superposición entre el acto de comunicación y lo que sería la información. Este modelo, compartido por el sentido común, concibe la comunicación como un circuito cerrado, además de homogéneo y objetivo; ya que 'elimina todo efecto perverso de la intersubjetividad constitutiva de los intercambios humanos' (Charaudeau, ob. Cit: 43) En contrapartida, se plantea una segunda mirada que considera que la información no existe en sí misma en un espacio exterior al hombre, sino que construye saber en forma de discurso. Así, se problematiza la pertinencia de la información, la selección y se enfatiza la existencia de un principio de influencia. A partir de esta segunda mirada es que se visibilizan las intenciones e intereses de quien comunica. A la luz de estas dimensiones, cabe agregar que las características del dispositivo TV (ilusión de realidad entre otras) no pueden ser pensadas como obstáculo sino como condición en la que los chicos van a desarrollar o no su lectura crítica. Es así que esta ponencia comienza a interrogarse por el lugar que puede desempeñar la escuela como espacio de reflexión y construcción de lectura crítica en relación con las noticias mediáticas. Desde la perspectiva teórica de un constructivismo relacional se concibe la lectura crítica como una práctica del lenguaje que se construye a partir de la participación de los sujetos en diversos contextos y prácticas sociales. Las condiciones sociales, los contextos de práctica, así como las representaciones que circulan socialmente y preexisten a los sujetos conformarían el marco epistémico desde el cual construyen las hipótesis acerca del objeto social abordado (Castorina y Lenzi, 2000; Castorina et al, 2007; Perelman, 2008)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En El Malestar en la Cultura, S. Freud afirma que el sufrimiento acecha al ser humano desde tres fuentes: los lazos con el prójimo, la relación con la naturaleza y el vínculo con el propio cuerpo. Si nos detenemos a pensar en este último punto, acaso el dolor se nos presente como la experiencia paradigmática que ilustra la relación con el propio cuerpo como fuente de malestar. El contexto de realización del presente trabajo involucra la participación de su autor en un equipo interdisciplinario perteneciente a un hospital público que atiende pacientes que padecen enfermedades orgánicas graves. Su objetivo es abordar la problemática del dolor, acontecimiento central en la vida cotidiana de dichos pacientes, como experiencia subjetiva. Esto supone poner en tensión la concepción biomédica tradicional del dolor (que lo reduce a una mera sensación derivada mecánicamente de una lesión orgánica) con desarrollos basados en disciplinas varias, que conceptualizan el dolor como percepción compleja anclada en variables subjetivas, culturales y sociales. A estos fines se discuten las concepciones biomédicas que abordan el dolor como mero epifenómeno de lo orgánico, acorde con la reducción del cuerpo a la dimensión de organismo biológico. Someramente, dichas concepciones tratan el dolor como un simple suceso bioquímico, basándose en los supuestos mecanicistas de la medicina tradicional moderna. Como contrapartida, se trabajan referencias bibliográficas provenientes de diversas disciplinas que cuestionan dicha concepción mecanicista, heredera de la partición cartesiana entre cuerpo y espíritu, considerando especialmente algunos aportes provenientes del psicoanálisis, que permiten pensar la articulación entre dolor, sujeto, cuerpo y demanda. El dolor y la angustia constituyen experiencias fundamentales de la existencia humana, que involucran al cuerpo de manera radical, y establecen relaciones complejas entre sí. Así, la referencia al dolor físico impresiona en algunos pacientes como una manera de darle una forma nombrable a su malestar. El dolor es sin duda algo que se percibe bajo modalidades de relación con el cuerpo que son propios de cada sujeto, de allí la preservación de una cierta marca de intimidad 'década quien con su dolor'; pero el propio dolor entra a la vez en un circuito de relaciones intersubjetivas, donde se plasman demandas dediversa índole. Se dirige al otro, al médico por caso, como un pedido de alivio. Pero los sujetos establecen con su dolor relaciones que no siempre resultan tan lineales, de allí que el dolor pueda cobrar valores disímiles, y jugar en las relaciones con los otros de modos variados. Desde 'aguantarse el dolor', hasta 'hacerse el que le duele' (el dolor como demanda al Otro, tal como atestigua con frecuencia la queja somática en los niños). Incluso que alguien llegue a 'querer (y pedir) que le duela un poco'. La situación de enfermedad grave y la experiencia de dolor colocan al sujeto en una posición de radical dependencia del otro, actualizando la estructura de la situación original bajo la que venimos al mundo. Se intenta demostrar que todo intento de abordaje interdisciplinario del dolor nos instala indefectiblemente en el terreno de la subjetividad, más allá de los impasses del organismo. '(...) que una patología esté ligada o no a una causalidad orgánica, es la cuestión del sujeto lo que está en juego para el psicoanálisis. Aún cuando una patología orgánica priva de ciertos medios, se trata de estar atentos a los que se manifiesta del lado del sujeto, la elección que puede operar el sujeto más allá de los impasses de su organismo' F. Ansermet, Medicina y psicoanálisis en interfase, (en revista Quarto, no 59. ECF (1996))

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad está plenamente reconocida la importancia de la caracterización mineralógica en el ámbito de la minería. Su aplicación es fundamental no sólo durante la etapa de diseño del circuito de concentración mineral, sino que se extiende también al control de calidad de los concentrados, al ajuste del circuito frente a variaciones de composición a medida que avanza la extracción en la mina, e incluso a la prevención de contaminación medioambiental. Tradicionalmente, el mineralogista se ha apoyado en el microscopio óptico y el contador de puntos para llevar a cabo la caracterización mineralógica. Sin embargo, una industria minera cada vez más exigente junto con la paulatina desaparición de expertos mineralogistas ha contribuido en gran medida al desarrollo de nuevas técnicas de análisis y a la evolución de las ya existentes. A menudo estas técnicas se apoyan en instrumentos costosos y de difícil mantenimiento (como el microscopio electrónico de barrido y la tecnología QEMSCAN), solo al alcance de grandes compañías mineras. Por todo ello, parece evidente que es necesaria una técnica que pueda realizar una caracterización mineral completa de manera más fiable y rápida que los métodos tradicionales, pero con un coste al alcance de la pequeña y mediana industria minera. El proyecto CAMEVA demuestra que esto es posible mediante un sistema automatizado de caracterización mineral basado en el análisis digital de imagen aplicado a la microscopia óptica de reflexión

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las diferencias individuales ante cualquier estímulo son parte de la condición humana, y reflejan nuestra diversidad genética, así como la influencia del entorno. Conocer el papel que juegan las variaciones genéticas o polimorfismos, es vital para entender de forma integral la respuesta del organismo al ejercicio. Por tanto, el presente trabajo tiene como objetivo fundamental definir el posible rol de tres variantes genéticas en el metabolismo energético durante la realización de ejercicio físico. Más concretamente, los objetivos principales son, por un lado, observar si existen diferencias en la respuesta láctica en sangre capilar y venosa en función del polimorfismo A1470T del gen del Transportador de Monocarboxilatos 1 (MCT1) (rs1049434). Por otro lado, el segundo objetivo es estudiar si presencia del polimorfismo del gen MCT1 determina parcialmente la máxima concentración de lactato en sangre venosa alcanzada durante diferentes protocolos de circuitos de fuerza. Por último, los objetivos tercero y cuarto se centran en analizar si existen diferencias en las ratios de acilcarnitinas en sangre, que reflejan la actividad de la Carnitina Palmitoiltransferasa II (CPTII), en función de los polimorfismo Val368Ile (rs1799821) y Met647Val (rs1799822) del gen de la CPTII (CPT2) durante la realización de una sesión de Circuito Mixto de musculación-aeróbico. Para la consecución de estos objetivos se realizaron dos estudios (Piloto y General). En el primero de ellos (Estudio Piloto) 10 hombres estudiantes de la Licenciatura en Ciencias de la Actividad Física y del Deporte (CCAFD) realizaron 6 sesiones de fuerza en circuito. En días no continuados y a una intensidad diferente (30%, 40%, 50%, 60%, 70% u 80% de la 15 repetición máxima, 15RM), los sujetos ejecutaron tres vueltas a un mismo circuito de 8 ejercicios. A lo largo de la sesión se tomaron muestras de sangre capilar para el análisis de la concentración de lactato. En el Estudio General, 15 hombres y 14 mujeres estudiantes de la Licenciatura en CCAFD realizaron 3 protocolos de fuerza en circuito, al 70% de la 15 RM y al 70% de la reserva de la frecuencia cardiaca. Cada día ejecutaron un protocolo diferente: Circuito de Máquinas, Circuito de Peso Libre o Circuito Mixto de musculación- aeróbico, completando en cada uno tres vueltas. Durante cada una de las sesiones se extrajeron muestras de sangre venosa para el análisis de la concentración de lactato y del perfil de acilcarnitinas. Los resultados del presente trabajo evidencian que los sujetos portadores del polimorfismo A1470T del MCT1 (genotipos AT y TT) tienen un comportamiento de lactato diferente que los sujetos no portadores (genotipo AA) cuando se someten a diferentes circuitos de fuerza. En el Estudio Piloto los portadores tuvieron mayor pendiente de acumulación de lactato capilar a la intensidad del 80% de la 15RM, mientras que en el Estudio General los sujetos homocigotos para la variante genética (TT) registraron menores concentraciones de lactato venoso que los homocigotos normales (AA) durante el Circuito de Máquinas. No podemos concluir si esta diferencia de resultados se deriva del tipo de sangre analizada (capilar VS. venosa), de la existencia de un efecto umbral para el transportador o de una bidireccionalidad del MCT1, aunque la hipótesis de bidireccionalidad parece la más integradora. En el grupo de mujeres, no se observó un patrón claro de diferencias entre grupos genéticos por lo que no podemos concluir si el polimorfismo tiene efecto o no en este sexo. En el estudio 2 del Estudio General, la inclusión la variante del MCT1 como variable predictora cuando las variables dependientes fueron la máxima concentración de lactato venosa en los tres protocolos en conjunto, o la máxima concentración venosa durante el Circuito de Máquinas, confirma su influencia en los entrenamientos con elevada producción de lactato. No obstante, en los entrenamientos con concentraciones de lactato más bajas, parece que existen factores más determinantes para la máxima concentración que el polimorfismo del MCT1. Por último, los resultados del tercer estudio del Estudio General, aunque preliminares, sugieren que la presencia de las variantes polimórficas del CPT2 podría influir sobre el transporte de los ácidos grasos durante la realización de actividad física, particularmente en hombres. Aún así, son necesarios más estudios para confirmar, especialmente en mujeres, la influencia de ambos polimorfismos en la actividad de la CPTII.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen El diseño clásico de circuitos de microondas se basa fundamentalmente en el uso de los parámetros s, debido a su capacidad para caracterizar de forma exitosa el comportamiento de cualquier circuito lineal. La relación existente entre los parámetros s con los sistemas de medida actuales y con las herramientas de simulación lineal han facilitado su éxito y su uso extensivo tanto en el diseño como en la caracterización de circuitos y subsistemas de microondas. Sin embargo, a pesar de la gran aceptación de los parámetros s en la comunidad de microondas, el principal inconveniente de esta formulación reside en su limitación para predecir el comportamiento de sistemas no lineales reales. En la actualidad, uno de los principales retos de los diseñadores de microondas es el desarrollo de un contexto análogo que permita integrar tanto el modelado no lineal, como los sistemas de medidas de gran señal y los entornos de simulación no lineal, con el objetivo de extender las capacidades de los parámetros s a regímenes de operación en gran señal y por tanto, obtener una infraestructura que permita tanto la caracterización como el diseño de circuitos no lineales de forma fiable y eficiente. De acuerdo a esta filosofía, en los últimos años se han desarrollado diferentes propuestas como los parámetros X, de Agilent Technologies, o el modelo de Cardiff que tratan de proporcionar esta plataforma común en el ámbito de gran señal. Dentro de este contexto, uno de los objetivos de la presente Tesis es el análisis de la viabilidad del uso de los parámetros X en el diseño y simulación de osciladores para transceptores de microondas. Otro aspecto relevante en el análisis y diseño de circuitos lineales de microondas es la disposición de métodos analíticos sencillos, basados en los parámetros s del transistor, que permitan la obtención directa y rápida de las impedancias de carga y fuente necesarias para cumplir las especificaciones de diseño requeridas en cuanto a ganancia, potencia de salida, eficiencia o adaptación de entrada y salida, así como la determinación analítica de parámetros de diseño clave como el factor de estabilidad o los contornos de ganancia de potencia. Por lo tanto, el desarrollo de una formulación de diseño analítico, basada en los parámetros X y similar a la existente en pequeña señal, permitiría su uso en aplicaciones no lineales y supone un nuevo reto que se va a afrontar en este trabajo. Por tanto, el principal objetivo de la presente Tesis consistiría en la elaboración de una metodología analítica basada en el uso de los parámetros X para el diseño de circuitos no lineales que jugaría un papel similar al que juegan los parámetros s en el diseño de circuitos lineales de microondas. Dichos métodos de diseño analíticos permitirían una mejora significativa en los actuales procedimientos de diseño disponibles en gran señal, así como una reducción considerable en el tiempo de diseño, lo que permitiría la obtención de técnicas mucho más eficientes. Abstract In linear world, classical microwave circuit design relies on the s-parameters due to its capability to successfully characterize the behavior of any linear circuit. Thus the direct use of s-parameters in measurement systems and in linear simulation analysis tools, has facilitated its extensive use and success in the design and characterization of microwave circuits and subsystems. Nevertheless, despite the great success of s-parameters in the microwave community, the main drawback of this formulation is its limitation in the behavior prediction of real non-linear systems. Nowadays, the challenge of microwave designers is the development of an analogue framework that allows to integrate non-linear modeling, large-signal measurement hardware and non-linear simulation environment in order to extend s-parameters capabilities to non-linear regimen and thus, provide the infrastructure for non-linear design and test in a reliable and efficient way. Recently, different attempts with the aim to provide this common platform have been introduced, as the Cardiff approach and the Agilent X-parameters. Hence, this Thesis aims to demonstrate the X-parameter capability to provide this non-linear design and test framework in CAD-based oscillator context. Furthermore, the classical analysis and design of linear microwave transistorbased circuits is based on the development of simple analytical approaches, involving the transistor s-parameters, that are able to quickly provide an analytical solution for the input/output transistor loading conditions as well as analytically determine fundamental parameters as the stability factor, the power gain contours or the input/ output match. Hence, the development of similar analytical design tools that are able to extend s-parameters capabilities in small-signal design to non-linear ap- v plications means a new challenge that is going to be faced in the present work. Therefore, the development of an analytical design framework, based on loadindependent X-parameters, constitutes the core of this Thesis. These analytical nonlinear design approaches would enable to significantly improve current large-signal design processes as well as dramatically decrease the required design time and thus, obtain more efficient approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En éste artículo se presenta el control adaptativo de un circuito auxiliar para conseguir conmutaciones suaves en todo el rango de carga en los semiconductores principales de un convertidor cargador de baterías trifásico basado en doble puente activo. Mediante este sistema se consigue tener ZVS en todo el margen de carga, sin ser necesaria la modificación de los parámetros del circuito ni de los semiconductores principales. Los principios de operación de este circuito y su control se comprobarán experimentalmente en un convertidor cargador de baterías de características similares al utilizado en el HYBRID TOYOTA PRIUS

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo es el mostrar cómo las herramientas de simulación electrónica pueden apoyar didácticamente al profesor en la enseñanza de asignaturas relacionadas con la electrónica de potencia. Se va a presentar un ejemplo guiado de uso de este tipo de herramientas en para el diseño del circuito de control de un convertidor CC/CC para una aplicación de alimentación dual en el entorno del automóvil. Para diseñar el circuito de control es necesario determinar en primer lugar la respuesta en frecuencia del convertidor. Se va a hacer uso del programa Simplorer con la biblioteca SMPS Library como herramienta de simulación para este ejemplo. Existen modelos en dicha biblioteca que permiten obtener la respuesta en frecuencia del circuito de forma directa. Este artículo explica los pasos que deben seguirse para diseñar el circuito de control de un convertidor Buck multi-fase usando tanto modelos promediados como modelos conmutados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es diseñar un sistema capaz de controlar la velocidad de rotación de un motor DC en función del valor de temperatura obtenido de un sensor. Para ello se generará con un microcontrolador una señal PWM, cuyo ciclo de trabajo estará en función de la temperatura medida. En lo que respecta a la fase de diseño, hay dos partes claramente diferenciadas, relativas al hardware y al software. En cuanto al diseño del hardware puede hacerse a su vez una división en dos partes. En primer lugar, hubo que diseñar la circuitería necesaria para adaptar los niveles de tensión entregados por el sensor de temperatura a los niveles requeridos por ADC, requerido para digitalizar la información para su posterior procesamiento por parte del microcontrolador. Por tanto hubo que diseñar capaz de corregir el offset y la pendiente de la función tensión-temperatura del sensor, a fin de adaptarlo al rango de tensión requerido por el ADC. Por otro lado, hubo que diseñar el circuito encargado de controlar la velocidad de rotación del motor. Este circuito estará basado en un transistor MOSFET en conmutación, controlado mediante una señal PWM como se mencionó anteriormente. De esta manera, al variar el ciclo de trabajo de la señal PWM, variará de manera proporcional la tensión que cae en el motor, y por tanto su velocidad de rotación. En cuanto al diseño del software, se programó el microcontrolador para que generase una señal PWM en uno de sus pines en función del valor entregado por el ADC, a cuya entrada está conectada la tensión obtenida del circuito creado para adaptar la tensión generada por el sensor. Así mismo, se utiliza el microcontrolador para representar el valor de temperatura obtenido en una pantalla LCD. Para este proyecto se eligió una placa de desarrollo mbed, que incluye el microcontrolador integrado, debido a que facilita la tarea del prototipado. Posteriormente se procedió a la integración de ambas partes, y testeado del sistema para comprobar su correcto funcionamiento. Puesto que el resultado depende de la temperatura medida, fue necesario simular variaciones en ésta, para así comprobar los resultados obtenidos a distintas temperaturas. Para este propósito se empleó una bomba de aire caliente. Una vez comprobado el funcionamiento, como último paso se diseñó la placa de circuito impreso. Como conclusión, se consiguió desarrollar un sistema con un nivel de exactitud y precisión aceptable, en base a las limitaciones del sistema. SUMMARY: It is obvious that day by day people’s daily life depends more on technology and science. Tasks tend to be done automatically, making them simpler and as a result, user life is more comfortable. Every single task that can be controlled has an electronic system behind. In this project, a control system based on a microcontroller was designed for a fan, allowing it to go faster when temperature rises or slowing down as the environment gets colder. For this purpose, a microcontroller was programmed to generate a signal, to control the rotation speed of the fan depending on the data acquired from a temperature sensor. After testing the whole design developed in the laboratory, the next step taken was to build a prototype, which allows future improvements in the system that are discussed in the corresponding section of the thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se ha diseñado un sistema de adquisición y uso compartido de datos orientado a la implantación en un vehículo monoplaza de Formula SAE. Más concretamente, se encarga de recoger la información proporcionada por cuatro sensores infrarrojos de temperatura que sondearán constantemente la temperatura a la que se encuentran las ruedas del vehículo. La información, recogida en una memoria de almacenamiento masivo, se compartirá con otros dispositivos mediante un bus común. Los sensores empleados para generar la información los proporciona Melexis. Dichos sensores permiten estar todos simultáneamente conectados en un bus común gracias a su electrónica interna. Mediante el bus I2C irán conectados los cuatro sensores de nuestra aplicación (uno por cada rueda) permitiéndose añadir a posteriori más sensores o incluso otros elementos que permitan la comunicación por este tipo de bus I2C. La gestión de las tareas se realiza mediante el microcontrolador DSPIC33FJ256GP710-I/PF proporcionado por Microchip. Este es un microcontrolador complejo, por lo que para nuestra aplicación desaprovecharemos parte de su potencial. En nuestra tarjeta ha sido solamente añadido el uso de los dos I2C (uno para la tarjeta SD y el otro para los sensores), el módulo ECAN1 (para las comunicaciones por bus CAN), el módulo SPI (para acceder a una memoria Flash), 4 ADCs (para posibles mediciones) y 2 entradas de interrupción (para posible interactuación con el usuario), a parte de los recursos internos necesarios. En este proyecto se realiza tanto el desarrollo de una tarjeta de circuito impreso dedicada a resolver la funcionalidad requerida, así como su programación a través del entorno de programación facilitado por Microchip, el ICD2 Programmer. In this project, an acquisition and sharing system of data, which is oriented to be installed in a Formula SAE single-seater vehicle, has been designed. Concretely, it is responsible for getting the information supplied by four IR temperature sensors that monitor the wheels temperature. The information, which is loaded in a massive storage memory, will be shared with other devices by means of a common bus. The sensors used to generate the information are supplied by Melexis. Such specific sensors let that all they can be connected to the same bus at the same time due to their internal electronic. The four sensors will be connected through an I2C bus, one for each wheel, although we could add later more sensors or even other devices that they were able to let the I2C communication. Tasks management will be done by means of the DSPIC33FJ256GP710-I/PF microcontroller, which will be supplied by Microchip. This is a complex microcontroller, so, in our application we waste off a part of its potential. In our PCB has only been incorporated the use of the two I2C (one for the SD card and the other for the sensors), the ECAN module (to communicate devices), the SPI module (to access to the Flash memory), 4 ADC’s (for possible measurements) and 2 interrupt inputs (for possible inter-action with the user), a part of the necessary internal resources. This project aims the PCB development dedicated to solve the requested functionality and its programming through the programming environment provided by Microchip (the ICD2 programmer).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Región Metropolitana de Madrid (RMM) ha sufrido una gran transformación urbana en el periodo 1985-2007, en el cual ha crecido la población, ha crecido fuertemente el cuerpo físico, pero sobre todo han crecido su coste y su consumo, lo que supone que se ha vuelto más insostenible. Para tratar de comprender esta evolución asimétrica se ensayan sucesivos modelos que tratan de explicar la transformación de la realidad a través de la articulación de las formas de poder y sus políticas asociadas dentro del contexto local-metropolitano. Si se compara la transformación urbana en el periodo 1985-2007 respecto a la registrada durante el desarrollismo previo al presente periodo democrático, se encuentran similitudes, como el amplio consumo de suelo, pero el modelo desarrollista se inscribe en otras lógicas y tiene otros parámetros de contexto y es congruente ya que las últimas décadas del Régimen Franquista se caracterizan por un importantísimo aumento poblacional que se correspondía con el fuerte crecimiento industrial de la RMM. Esa congruencia relativa se pierde en el periodo estudiado, a pesar de que en 1985, se aprueba el Plan General de Ordenación Urbana de Madrid centrado en la ciudad existente y con un crecimiento contenido, y que puede considerarse un modelo abortado. Tras numerosas transformaciones políticas, económicas, sociales y urbanísticas se llega a una situación opuesta a la prevista en el citado Plan. Más de veinte años después, en 2007, se presentan no solo síntomas de agotamiento del modelo finalmente adoptado, sino su quiebra dramática tanto en su dimensión inmobiliario-financiera como del espacio del bienestar. Es precisamente la supresión de los mecanismos de regulación lo que ha caracterizado la evolución de los modelos urbanos, en correspondencia con la desregulación de las actividades económicas y de los flujos de capital propios del modelo "neoliberal". La actual crisis financiera internacional, en especial en algunos países periféricos europeos como España, ha demostrado cómo las políticas económicas que se han llevado a cabo, fuera de toda regulación, han resultado insostenibles. Pero no se trata solo de una crisis económica. En el caso español, de todas las dimensiones de la crisis, destaca la dimensión urbana, o el auge y caída del ciclo inmobiliario, debido a la urbanización intensiva del territorio en relación con el circuito secundario de la acumulación capitalista, habiendo tenido especial incidencia en algunos territorios como la RMM. En la Región Metropolitana de Madrid la situación actual es de crisis urbana, causada principalmente por el divorcio entre las necesidades y la producción de ciudad, pues no se ha basado el crecimiento en la creación de nuevos hogares, u otras cuestiones demográficas, sino en la acumulación de capital a través del crecimiento de la ciudad. Además, dicho crecimiento está conformado por una expansión urbana descontrolada, con mayores requerimientos energéticos que el modelo compacto y complejo tradicional, lo que unido a la escala de los procesos, supone un sistema urbano progresivamente ineficiente. El caso de la RMM resulta paradigmático, ya que la región ha desempeñado un papel como laboratorio de nuevas formas de gobierno y planificación que han dado un mayor protagonismo al espacio, que ha entrado en las dinámicas centrales principalmente por el apoyo al crecimiento físico, a la vez que han confluido circunstancias específicas, como un nuevo impulso al centralismo, lo que ha potenciado ciertas políticas, como considerar la ciudad como motor de crecimiento económico y de competitividad en el concierto europeo y mundial de ciudades. El estudio del papel de la planificación y sus crisis en la sucesión de los modelos, muestra su función nuclear en la propia constitución de estos —es parte fundamental de su aparato de regulación— y su valor no solo para poder entender el periodo, sino para poder proyectar otro futuro urbano. Este enfoque conduce a establecer la relación del planeamiento con las diferentes crisis económicas en el periodo de estudio lo que permite diferenciar tres momentos de dicha relación: la planificación urbanística austera bajo la influencia de la crisis fordista, la salida de la crisis a través de la imposición de un modelo urbano basado en el sobreproducción de espacio urbano, y la entrada en una crisis inmobiliaria y de financiarización en relación a la adopción de un modelo multidimensionalmente insostenible. El análisis de este periodo es la base para apuntar perspectivas que permitan transformar el gobierno urbano hacia un modelo urbano más deseable, o mejor aún, otros futuros posibles, que se enmarcan dentro de la alternativa principal que supone la sostenibilidad. Madrid's Metropolitan Region (MMR) has undergone a major urban transformation in the period 1985-2007, where the population has grown up, the built environment has grown strongly, but mostly its cost and consumption have grown, which means that it has become unsustainable. To try to understand this evolution successive asymmetric models are tested in order to explain the transformation of reality through the articulation of forms of power and its associated policies in that localmetropolitan context. Comparing the urban transformation in the period 1985-2007 to the existing during developmentalism in the current predemocratic period, both have similarities in terms of land consumption, but the previous developmentalism model is part of another logics and has got other context parameters. It is consistent since the last decades of the Franco Regime was characterized by an important population increase that corresponded to strong industrial growth of the MMR. This relative consistency is lost during the study period, although in 1985, with the approval of the Master Plan of Madrid that was focused on the existing city, with a limited growth, and it may be considered an interrupted model. After numerous political, economic, social and urban changes, there is the opposite situation to that foresight under that Plan. Over twenty years later, in 2007, there are not only signs of exhaustion of the model which was finally adopted, but also its dramatic collapse in both real estate and financial dimension of space as well. The urban transformation under analysis has relaunched the hegemony of the sectors that rule the growth of the Madrid's Metropolitan Region and it is supported by decision making and financing of the different administrations with the passivity of the social stakeholders and citizens. This has meant the removal of regulatory mechanisms that have characterized the evolution of urban models, corresponding to the deregulation of economic activities and capital flows according to "neoliberal" model. The current international financial crisis, especially in some European peripheral countries like Spain, has shown how economic policies that have been carried out, without any regulation, have proven unsustainable. But it is not only an economic crisis. In the Spanish case, of all the dimensions of the crisis, it is the urban dimension that is highlighted, or the rise and fall of real estate cycle, due to intensive urbanization of the territory in relation to the secondary circuit of capital accumulation, having had a particular impact in some territories such as the Madrid's Metropolitan Region. In Madrid's Metropolitan Region there is the current situation of urban crisis, mainly caused by the divorce between needs and the city (space) production, because no growth has been based on creating new homes, or other demographic issues, but in the capital accumulation through growth of the city. Furthermore, this growth is made up of urban sprawl, with higher energy requirements than the traditional compact and complex one, which together with the scale of processes, is increasingly an inefficient urban system. The case of Madrid's Metropolitan Region is paradigmatic, since the region has played a role as a laboratory for new forms of governance and planning have given a greater role to space, which has entered the core dynamics supported mainly by physical growth, while specific circumstances have come together as a new impulse to centralization. This has promoted policies such as considering the city as an engine of economic growth and competitiveness in the international and the European hierarchy of cities. The study of the role of planning and crisis in the succession of models, shows its nuclear role in the constitution of these models is a fundamental part of its regulatory apparatus- and also its value not only to understand the period, but to anticipate to other urban future. This approach leads to establish the relationship of planning with the various crises in the study period, allowing three different moments of that relationship: the austere urban planning under the influence of Fordist crisis, the output of the crisis through imposition of an urban model based on the overproduction of urban space, and entry into a housing crisis and financialisation in relation to the adoption of a multi-dimensionally unsustainable model. The analysis of this period is the basis for targeting prospects that translate urban governance towards a more desirable urban model, or better yet, other possible futures, which are part of the main alternative that is sustainability.