877 resultados para DISCRIMINACION BASADA EN EL GENERO
Resumo:
Siempre me interesaron las relaciones entre la Primera Parte de El Eternauta, de Héctor Oesterheld y Solano López (1957), y sus "malogradas" continuaciones. Por su carácter fantástico, el argumento de la historieta admite laposibilidad de múltiples continuaciones y derivaciones; sin embargo -y la Segunda Parte de la obra (escrita por el mismo Oesterheld en 1976) es una buena prueba al respecto-, la realización efectiva de una continuación planteó y plantea innumerables dificultades. En este punto, creo que la clave para pensar el problema pasa por la cuestión de la "memoria" y el lugar del "futuro" en la ficción. Muchos olvidan que, en el final de esa Primera Parte, la intriga se hace circular: para recuperar vida y hogar, el héroe olvida o anula su experiencia aventurera. La recuperación del pasado está basada en el olvido del futuro, que necesaria y trágicamente va a ser catastrófico. En cambio, y este es el gran acierto poético, junto al héroe está su autor, el "guionista", cuya escritura sí se orienta hacia el futuro (¿podrá evitar la catástrofe publicando todo lo que el héroe le contó: "será posible"?). Para continuar su historia, Juan Salvo tiene que recuperar la memoria de su experiencia, y en ese trance no podrá evitar dejar de ser quien es: ¿cómo continuar, entonces, la historia de un sujeto que ha dejado irremisiblemente de ser lo que era? ¿Transformándolo en un "super-hombre"? En todo caso, queda claro que El Eternauta es un texto diferente aun dentro de la producción de Oesterheld; casi no es un buen ejemplo de esa producción: contra los supuestos y protocolos de la "literatura de masas", dicha historieta obliga al lector, empuja a la ficción (y a sus continuadores), a preguntarse por el estatuto de la memoria y su relación con el futuro
Resumo:
Objetivo: La presente ponencia tiene como objetivo determinar cuánta producción publicada en revistas pueden autoarchivar los investigadores de una institución. Se aplica una metodología basada en el análisis del modelo de acceso a las revistas donde publican los investigadores que permite estimar la disponibilidad en abierto real y potencial de su producción. Se presenta el caso de la producción científica en medicina del período 2006-2010 de dos universidades argentinas. Métodos: La producción de la Universidad Nacional de La Plata (UNLP) y de la Universidad Nacional de Rosario (UNR) fueron recogidas de la base de datos Scopus y los modelos de acceso a las revistas, determinados a partir de la consulta a Romeo-Sherpa, Dulcinea, DOAJ, SciELO, RedALyC, PubMed Central,. Resultados: En el caso de la UNLP el 28 de los artículos es de acceso abierto real al ser publicados en revistas OA y el 59 es potencialmente accesible por estar publicados en revistas de suscripción que permiten el autoarchivo. En la UNR el 42 de los artículos es de acceso abierto real y el 55 potencialmente accesible en repositorios de acceso abierto. Conclusiones: En ambos casos es alta la viabilidad de proveer acceso abierto a la producción científica en medicina a través del auto-archivo en repositorios. Se identifican las principales revistas y editoriales y se determinan los tipos de versión del artículo que se puede auto-archivar ofreciendo información que facilita el trabajo de los gestores de los repositorios
Resumo:
Este trabajo forma parte de un capítulo de la tesis doctoral: la cultura del Inef de Buenos Aires, durante la dictadura. En el instituto las alumnas se encontraban dominadas por una dinámica discriminatoria, basada en el arraigo de los estereotipos de género, profundamente implantados en el I.N.E.F, donde encontramos la preponderancia de un pensamiento hegemónico, de carácter androcéntrico, que presidía y hegemonizaba parte de la cotidianeidad del profesorado. En no pocas entrevistas realizadas con alumnas que cursaron en la época que comprende este estudio, se manifestaron temores sobre la conducta de algunos docentes. Profundizando encontramos que algunos docentes llegaron inclusive a tocar indebidamente a una alumna y otros proferían palabras soeces, relacionadas con los atributos femeninos de algunas alumnas y las mostraban como ejemplo de cuerpo femenino frente a sus compañeras. Indagada la entrevistada en relación a la acción de elevar quejas sobre estas conductas, la respuesta fue: ?un grupo de compañeras nos reunimos con la Rectora y le manifestamos nuestro disgusto y absoluto desacuerdo con estos docentes .Nos respondió que no era para tanto, pero que igual hablaría con algunos de ellos. Situación que evalúo que no sucedió jamás porque estos docentes siguieron haciendo de las suyas impunemente?. Entendemos que si la denuncia por acoso es desatendida se generan en el denunciante, más sentimientos de agravio y humillación. Tipificando tres formas de acoso sexual, encuentro que varias de ellas, estaban presentes en el instituto como: Miradas insistentes, sugestivas o Insultantes a distintas partes del Cuerpo. Silbidos, sonidos, gestos, imágenes O dibujos ofensivos y denigrantes. Piropos de mal gusto, de contenido claramente sexual. Comentarios ofensivos sobre el cuerpo o forma de vestir de la persona con una fuerte carga de Carácter sexual. Insultos, amenazas
Resumo:
Siempre me interesaron las relaciones entre la Primera Parte de El Eternauta, de Héctor Oesterheld y Solano López (1957), y sus "malogradas" continuaciones. Por su carácter fantástico, el argumento de la historieta admite laposibilidad de múltiples continuaciones y derivaciones; sin embargo -y la Segunda Parte de la obra (escrita por el mismo Oesterheld en 1976) es una buena prueba al respecto-, la realización efectiva de una continuación planteó y plantea innumerables dificultades. En este punto, creo que la clave para pensar el problema pasa por la cuestión de la "memoria" y el lugar del "futuro" en la ficción. Muchos olvidan que, en el final de esa Primera Parte, la intriga se hace circular: para recuperar vida y hogar, el héroe olvida o anula su experiencia aventurera. La recuperación del pasado está basada en el olvido del futuro, que necesaria y trágicamente va a ser catastrófico. En cambio, y este es el gran acierto poético, junto al héroe está su autor, el "guionista", cuya escritura sí se orienta hacia el futuro (¿podrá evitar la catástrofe publicando todo lo que el héroe le contó: "será posible"?). Para continuar su historia, Juan Salvo tiene que recuperar la memoria de su experiencia, y en ese trance no podrá evitar dejar de ser quien es: ¿cómo continuar, entonces, la historia de un sujeto que ha dejado irremisiblemente de ser lo que era? ¿Transformándolo en un "super-hombre"? En todo caso, queda claro que El Eternauta es un texto diferente aun dentro de la producción de Oesterheld; casi no es un buen ejemplo de esa producción: contra los supuestos y protocolos de la "literatura de masas", dicha historieta obliga al lector, empuja a la ficción (y a sus continuadores), a preguntarse por el estatuto de la memoria y su relación con el futuro
Resumo:
El presente artículo tiene como objetivo comparar las principales propuestas de regionalización del territorio argentino buscando establecer -a partir de su relevamiento, análisis y comparación- continuidades y rupturas en torno a la construcción conceptual de la Pampa. Esta preocupación se establece dentro de la perspectiva que señala que la geografía regional -en tanto modalidad de escritura geográfica que apela a la distinción, nominación y ordenamiento de entidades subnacionales para ofrecer interpretaciones de conjunto sobre el territorio y la sociedad de un país-, en sus diversas propuestas, implica modos de representar y de abordar las asimetrías internas de una sociedad. Se profundiza, entonces, tanto en los diversos paradigmas sobre los cuales se han establecido dichas propuestas como en las construcciones que estas han desarrollado de la región en cuestión. Se trata de una unidad geográfica que ha sido recurrentemente imaginada como poseedora de una supuesta centralidad basada en el peso demográfico e industrial, el nivel de la productividad agropecuaria, la generación de grandes riquezas económicas, su historia, y el rol aglutinador/articulador de la economía y la política
Resumo:
Objetivo: La presente ponencia tiene como objetivo determinar cuánta producción publicada en revistas pueden autoarchivar los investigadores de una institución. Se aplica una metodología basada en el análisis del modelo de acceso a las revistas donde publican los investigadores que permite estimar la disponibilidad en abierto real y potencial de su producción. Se presenta el caso de la producción científica en medicina del período 2006-2010 de dos universidades argentinas. Métodos: La producción de la Universidad Nacional de La Plata (UNLP) y de la Universidad Nacional de Rosario (UNR) fueron recogidas de la base de datos Scopus y los modelos de acceso a las revistas, determinados a partir de la consulta a Romeo-Sherpa, Dulcinea, DOAJ, SciELO, RedALyC, PubMed Central,. Resultados: En el caso de la UNLP el 28 de los artículos es de acceso abierto real al ser publicados en revistas OA y el 59 es potencialmente accesible por estar publicados en revistas de suscripción que permiten el autoarchivo. En la UNR el 42 de los artículos es de acceso abierto real y el 55 potencialmente accesible en repositorios de acceso abierto. Conclusiones: En ambos casos es alta la viabilidad de proveer acceso abierto a la producción científica en medicina a través del auto-archivo en repositorios. Se identifican las principales revistas y editoriales y se determinan los tipos de versión del artículo que se puede auto-archivar ofreciendo información que facilita el trabajo de los gestores de los repositorios
Resumo:
La presente tesis doctoral tiene como objetivo el estudio del texto de las Admoniciones de Ipuwer y el análisis de la literatura política y la sociedad del Reino Medio egipcio. A través del análisis y la interpretación de dicho texto se pretende comprender la literatura que habría cobrado auge durante el Reino Medio y que habría permeado y plasmado, por medio de sus relatos y narraciones, imágenes y representaciones de la sociedad egipcia del período. Examinaremos así, las escenas de un mundo al revés presentes en dicho texto mediante la representación literaria de una revolución social, junto con el ideal de sociedad y de soberano que se intenta desarrollar y plasmar desde la clase gobernante. Asimismo, en esta tesis se desarrolla un análisis sobre las expresiones sobre lo político y lo ideológico contenidas en dicho texto y en otras fuentes del período con el objetivo de develar cómo se conjugaban y articulaban con mecanismos de legitimación estatal y cohesión social por parte de las propias elites del Reino Medio. En este sentido, en dicha tesis se aborda la problemática de la práctica de la literatura egipcia por parte de las elites egipcias y los sectores dominantes, y se fundamenta cómo ciertos textos literarios habrían sido un medio para la legitimación política del Estado y su clase dirigente así como vías de legitimación ideológica y social de las propias elites productoras y destinatarias de estos textos. En suma, en esta tesis basada en el estudio de las Admoniciones de Ipuwer, se apunta al estudio de la relación entre la literatura del Reino Medio y la legitimación política, desde el análisis de las ideas que contiene dicho texto
Resumo:
Este trabajo forma parte de un capítulo de la tesis doctoral: la cultura del Inef de Buenos Aires, durante la dictadura. En el instituto las alumnas se encontraban dominadas por una dinámica discriminatoria, basada en el arraigo de los estereotipos de género, profundamente implantados en el I.N.E.F, donde encontramos la preponderancia de un pensamiento hegemónico, de carácter androcéntrico, que presidía y hegemonizaba parte de la cotidianeidad del profesorado. En no pocas entrevistas realizadas con alumnas que cursaron en la época que comprende este estudio, se manifestaron temores sobre la conducta de algunos docentes. Profundizando encontramos que algunos docentes llegaron inclusive a tocar indebidamente a una alumna y otros proferían palabras soeces, relacionadas con los atributos femeninos de algunas alumnas y las mostraban como ejemplo de cuerpo femenino frente a sus compañeras. Indagada la entrevistada en relación a la acción de elevar quejas sobre estas conductas, la respuesta fue: ?un grupo de compañeras nos reunimos con la Rectora y le manifestamos nuestro disgusto y absoluto desacuerdo con estos docentes .Nos respondió que no era para tanto, pero que igual hablaría con algunos de ellos. Situación que evalúo que no sucedió jamás porque estos docentes siguieron haciendo de las suyas impunemente?. Entendemos que si la denuncia por acoso es desatendida se generan en el denunciante, más sentimientos de agravio y humillación. Tipificando tres formas de acoso sexual, encuentro que varias de ellas, estaban presentes en el instituto como: Miradas insistentes, sugestivas o Insultantes a distintas partes del Cuerpo. Silbidos, sonidos, gestos, imágenes O dibujos ofensivos y denigrantes. Piropos de mal gusto, de contenido claramente sexual. Comentarios ofensivos sobre el cuerpo o forma de vestir de la persona con una fuerte carga de Carácter sexual. Insultos, amenazas
Resumo:
En esta ponencia presentaremos un caso de análisis multidimensional, que constituye parte del momento objetivista de una investigación acerca de la producción y la reproducción de la pobreza en la localidad de Malvinas Argentinas, provincia de Córdoba. Desde un enfoque relacional, se toma como eje la noción de estrategias de reproducción social y, más específicamente el lugar que ocupan en esa problemática los diferentes tipos de redes sociales que enlazan a las familias pobres entre sí y con otros agentes e instituciones que ocupan otras posiciones en el espacio social. Como parte de la reconstrucción de las relaciones objetivas que hacen posible la existencia de tales redes y establecen los límites y posibilidades de las prácticas e interacciones, expondremos la construcción del espacio social a partir de un análisis multidimensional que toma como base de información algunas de las variables captadas por el Censo de Población y Vivienda de 2001, desagregadas a nivel de segmentos censales. De este modo, la caracterización de la localidad implica asumir un principio de diferenciación fundamentado en la desigual distribución de recursos, en tanto propiedades pertinentes que fueron captadas por el censo, y a partir del cual proponemos una reconstrucción de clases basada en el volumen y la estructura de estas propiedades
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Esta Tesis Doctoral evalúa empíricamente la calidad del servicio en la línea de atraque de las terminales portuarias de contenedores. La metodología propuesta utiliza indicadores de calidad y se basa en el concepto de la segmentación de servicio. Para ello se desarrolla la teoría del Control Estadístico de Procesos (CEP) y se utilizan los gráficos de control para clasificar el servicio en las terminales de contenedores. El propósito de la Tesis es proporcionar una metodología basada en el Control Estadístico de Procesos (CEP) para evaluar la calidad del servicio y detectar las escalas de un servicio regular de línea que se encuentran fuera de control. Por tanto, la metodología se puede utilizar para detectar eventos que son indicativos de cambio real del proceso en la línea de atraque. Esta detección puede ser compleja pues las características de los procesos en terminales de contenedores son variables. La metodología proporciona mediante los gráficos de control criterios estadísticamente objetivos de cambio. Cuando el cambio es detectado y considerado bueno sus causas deben ser identificadas y posiblemente convertirse en la nueva forma de trabajar, cuando el cambio es negativo, entonces sus causas deberían ser identificadas y eliminadas. La Tesis Doctoral está organizado de la siguiente manera: La primera parte es la introducción, e incluye los capítulos 1 al 4, la segunda parte presenta el Estado del Arte (capítulo 5) y algunos de los estudios que han inspirado esta investigación, la tercera parte se centra en la metodología utilizada (capítulo 6) y su aplicación sobre un caso de estudio (capítulo 7). Finalmente, en la cuarta parte se presentan las conclusiones y se proponen algunas de las nuevas líneas de investigación que quedan abiertas (capítulo 8). This Thesis empirically evaluates the quality of service in the berthing face of container terminals. The methodology proposed is focused on quality of service indicators and is based on the concept of service segmentation. The Statistical Process Control (SPC) theory and the control charts are used to classify container terminal service. The aim of this Thesis is to provide a methodology based on Statistical Process Control that can evaluate the quality of service and also can detect scales of shipping liner service that are out of control. Therefore, the methodology can be used to detect events that are indicative of real change in the berthing process of container vessels. The methodology proposed allows simple detection of events that are indicative of actual process change in container terminals. This detection is complex because the characteristics of the processes are variable in the container terminals; the control chart provides statistically objective criteria of change. When change is detected and considered good its cause should be identified and possibly become the new way of working, where the change is bad then its cause should be identified and eliminated. This Thesis is organized as follows: The first part is the introduction (includes Chapters 1 to 4), the second part presents the State of the Art (Chapter 5) and some of the studies that have inspired this research. The third part focuses on the methodology used (Chapter 6) and its application to a case study (Chapter 7). Finally, Part 4 presents the conclusions and suggests future research (Chapter 8).
Resumo:
El presente trabajo presenta una evaluación de las alternativas no químicas al 1,3 dicloropropeno + cloropicrina (AGROC) usado para el control de la fusariosis vascular en clavel en campos experimentales del suroeste de España. Esta enfermedad ha sido un factor limitante en todas las regiones del mediterráneo para poder mantener el cultivo durante 2 años. Tiempo éste necesario para obtener un rendimiento económico aceptable. La desinfección del suelo está basada en el compostado de la materia orgánica, que combinada o no con la solarización, es agrupada bajo la denominación de biodesinfección. Los tratamientos evaluados fueron: compost de alperujo con o sin solarización (31días), compost de residuos post-cosecha de clavel y crisantemo con y sin solarización, compost de residuos post-cosecha de clavel y crisantemo + gallinaza con y sin solarización. La gravedad de la enfermedad y la producción de flores se evaluaron semanalmente durante los 2 años que duró el experimento. Los resultados mostraron que la biodesinfección del suelo utilizando compost de clavel y crisantemo + gallinaza + solarización confiere una aceptable protección contra la fusariosis vascular durante los 2 años que dura el cultivo. La producción fue significativamente mayor que en cualquier otro de los tratamientos. Los resultados además sugieren que la adición de la gallinaza y el uso del polietileno estándar de alta densidad (HDPE) de forma conjunta fueron el factor clave en el éxito de la desinfección. No hubo efecto de la solarización sola, posiblemente debido a la época en la cual se aplicó
Resumo:
Este artículo expone la metodología de trabajo desarrollada en las investigaciones del Departamento de Construcción y Tecnología Arquitectónicas de la UPM, basada en el concepto de ecoinnovación, y en la normativa AENOR de Ecodiseño (UNE-EN ISO 14006), en normativas relacionadas como la UNE-EN ISO 9001 y 14001, entre otras. Dicha metodología considera los aspectos medioambientales desde las primeras fases de la investigación, para aumentar la ecoeficiencia de las propuestas producidas, de manera que satisfagan las necesidades humanas y proporcionen una mejor calidad de vida, a la vez que reduzcan progresivamente los impactos ambientales y la intensidad de consumo de recursos a lo largo de su ciclo de vida, hasta un nivel, al menos, en línea con la capacidad de asimilación de la Tierra. El objetivo de esta comunicación es explicar y dar a conocer, mediante ejemplos concretos, dicha metodología; los beneficios de la misma y cómo influye su utilización en el diseño arquitectónico de fachadas vegetales.
Resumo:
Se describe una metodologia basada en el estudio de la oferta de biomasa forestal y la demanda energética de un determinado municipio, para buscar el mejor aprovechamiento energético termico que facilite el desarrollo de una determinada región
Resumo:
El objetivo principal de esta tesis es el desarrollo de herramientas numéricas basadas en técnicas de onda completa para el diseño asistido por ordenador (Computer-Aided Design,‘CAD’) de dispositivos de microondas. En este contexto, se desarrolla una herramienta numérica basada en el método de los elementos finitos para el diseño y análisis de antenas impresas mediante algoritmos de optimización. Esta técnica consiste en dividir el análisis de una antena en dos partes. Una parte de análisis 3D que se realiza sólo una vez en cada punto de frecuencia de la banda de funcionamiento donde se sustituye una superficie que contiene la metalización del parche por puertas artificiales. En una segunda parte se inserta entre las puertas artificiales en la estructura 3D la superficie soportando una metalización y se procede un análisis 2D para caracterizar el comportamiento de la antena. La técnica propuesta en esta tesis se puede implementar en un algoritmo de optimización para definir el perfil de la antena que permite conseguir los objetivos del diseño. Se valida experimentalmente dicha técnica empleándola en el diseño de antenas impresas de banda ancha para diferentes aplicaciones mediante la optimización del perfil de los parches. También, se desarrolla en esta tesis un procedimiento basado en el método de descomposición de dominio y el método de los elementos finitos para el diseño de dispositivos pasivos de microonda. Se utiliza este procedimiento en particular para el diseño y sintonía de filtros de microondas. En la primera etapa de su aplicación se divide la estructura que se quiere analizar en subdominios aplicando el método de descomposición de dominio, este proceso permite analizar cada segmento por separado utilizando el método de análisis adecuado dado que suele haber subdominios que se pueden analizar mediante métodos analíticos por lo que el tiempo de análisis es más reducido. Se utilizan métodos numéricos para analizar los subdominios que no se pueden analizar mediante métodos analíticos. En esta tesis, se utiliza el método de los elementos finitos para llevar a cabo el análisis. Además de la descomposición de dominio, se aplica un proceso de barrido en frecuencia para reducir los tiempos del análisis. Como método de orden reducido se utiliza la técnica de bases reducidas. Se ha utilizado este procedimiento para diseñar y sintonizar varios ejemplos de filtros con el fin de comprobar la validez de dicho procedimiento. Los resultados obtenidos demuestran la utilidad de este procedimiento y confirman su rigurosidad, precisión y eficiencia en el diseño de filtros de microondas. ABSTRACT The main objective of this thesis is the development of numerical tools based on full-wave techniques for computer-aided design ‘CAD’ of microwave devices. In this context, a numerical technique based on the finite element method ‘FEM’ for the design and analysis of printed antennas using optimization algorithms has been developed. The proposed technique consists in dividing the analysis of the antenna in two stages. In the first stage, the regions of the antenna which do not need to be modified during the CAD process are initially characterized only once from their corresponding matrix transfer function (Generalized Admittance matrix, ‘GAM’). The regions which will be modified are defined as artificial ports, precisely the regions which will contain the conducting surfaces of the printed antenna. In a second stage, the contour shape of the conducting surfaces of the printed antenna is iteratively modified in order to achieve a desired electromagnetic performance of the antenna. In this way, a new GAM of the radiating device which takes into account each printed antenna shape is computed after each iteration. The proposed technique can be implemented with a genetic algorithm to achieve the design objectives. This technique is validated experimentally and applied to the design of wideband printed antennas for different applications by optimizing the shape of the radiating device. In addition, a procedure based on the domain decomposition method and the finite element method has been developed for the design of microwave passive devices. In particular, this procedure can be applied to the design and tune of microwave filters. In the first stage of its implementation, the structure to be analyzed is divided into subdomains using the domain decomposition method; this process allows each subdomains can be analyzed separately using suitable analysis method, since there is usually subdomains that can be analyzed by analytical methods so that the time of analysis is reduced. For analyzing the subdomains that cannot be analyzed by analytical methods, we use the numerical methods. In this thesis, the FEM is used to carry out the analysis. Furthermore the decomposition of the domain, a frequency sweep process is applied to reduce analysis times. The reduced order model as the reduced basis technique is used in this procedure. This procedure is applied to the design and tune of several examples of microwave filters in order to check its validity. The obtained results allow concluding the usefulness of this procedure and confirming their thoroughness, accuracy and efficiency for the design of microwave filters.