8 resultados para SOCIOLOGÍA DE LA INFORMACIÓN – ASPECTOS ECONÓMICOS
em Universidad Politécnica de Madrid
Resumo:
El conjunto de actividades ligadas al transporte aéreo se ha convertido, a nivel global, en una importante fuente de recursos económicos, generación de empleo e incremento de la calidad de vida de los ciudadanos. Sin embargo, la situación crónica de saturación del espacio aéreo y de los propios aeropuertos limita enormemente el potencial crecimiento económico mundial basado en este sector estratégico del transporte. Como efecto colateral de esta saturación, se producen graves daños medioambientales debidos fundamentalmente, a la emisión directa a la atmósfera de mucha mayor cantidad de gases de efecto invernadero de la estrictamente necesaria. La solución al problema no es abordable exclusivamente a través de la construcción de nuevas infraestructuras aeroportuarias o la ampliación de las ya existentes. Los organismos mundiales relacionados con la aviación civil han diagnosticado que la forma anacrónica en la que actualmente se está gestionando la información aeronáutica (IA) impide que los proveedores de servicios de navegación aérea puedan tratar de forma eficiente y segura un mayor volumen de tránsito aéreo en el mismo espacio y lapso de tiempo. En definitiva, se advierte que la actual falta de eficiencia de la gestión de IA constriñe de forma notable el verdadero potencial del sistema aéreo mundial. Para solucionar este problema, se encuentra en marcha un ambicioso programa de trabajo que pretende mejorar la situación actual, dando respuesta a la necesidad de una interoperabilidad mundial desde un punto de vista análogo al que promueven las IDE en otros campos temáticos. Denominado genéricamente transición de AIS (Servicios de Información Aeronáutica) a AIM (Gestión de la Información Aeronáutica), este proceso está liderado por la Organización de Aviación Civil Internacional (OACI), encargada de su tutela y coordinación con los estados para evitar en lo posible evoluciones divergentes. Basada en la futura puesta en marcha de un modelo mundial de intercambio de datos aeronáuticos normalizados, el avance de esta iniciativa está obligando a los servicios AIS a replantearse la forma en la que, hasta el momento, publican y difunden el contenido de las denominadas Publicaciones de Información Aeronáutica (AIP). Todavía hoy (mediados de 2011), las AIS publican su cartografía en formato papel y estos mapas son de uso obligatorio en todos los vuelos de transporte de pasajeros que realicen las compañías aéreas. Aunque nada impide que los pilotos puedan llevar otra información adicional en instrumentos electrónicos propios (ordenadores portátiles, teléfonos, tabletas tipo iPad, y otros), el uso de los mapas en papel sigue siendo obligatorio. Esto arrastra algunas consecuencias relacionadas con su manejo (la cabina del piloto es muy pequeña), con la lectura de los mapas (hay cada vez más información en los mapas), con su actualización (hay que versionar constantemente los mapas para incorporar novedades con el gasto de impresión y distribución que supone) y con otros aspectos que pueden ser fácilmente mejorables por medio de las tecnologías emergentes, como por ejemplo el acceso ubicuo a la información espacial más actual. Entre los cambios que impulsará la iniciativa del cambio de AIS a AIM, está el que los mapas usados por los pilotos y otros técnicos de IA, dejarán de concebirse como productos terminales y cerrados para evolucionar hacia el conocido formato de datos distribuidos e interoperables que auspician las IDE, logrando con ello integrar la información, contenida en la definición de diferentes flujos de trabajo dentro del campo aeronáutico, de forma directa, transparente y eficiente.
Resumo:
El fútbol es un deporte en cuya práctica existe una alta incidencia de lesión. Además, en el ámbito profesional las lesiones suponen un duro proceso de recuperación para el futbolista, una reducción del rendimiento deportivo para éste y para el equipo, y unos grandes costes económicos para el club. Dentro de esta problemática, la bibliografía consultada concluye que en las pretemporadas se produce una mayor incidencia de lesión por sobrecarga, es decir, sin contacto; un tipo de lesiones que está a nuestro alcance poder prevenir. Por ello, consideramos importante el conocer y desarrollar métodos, herramientas y principios para obtener programas preventivos efectivos, que reduzcan las elevadas cifras de incidencia de lesión mostradas por la literatura. El presente estudio observa y registra las lesiones, a través del cuestionario F-MARC, de un equipo profesional de fútbol de la Liga Española durante las pretemporadas 2008 (n=24) y 2009 (n=24). Además, durante la pretemporada 2009 se aplicó la termografía infrarroja para adquirir información sobre la asimilación de la carga de entrenamiento por parte de los jugadores, y dicha información se utilizarón para mejorar las tomas de decisiones de protocolos post-ejercicio específicos en prevención de lesiones, los cuales fueron los mismos que se utilizaron previamente en la pretemporada 2008. El estudio tiene un diseño con características pre-post sin grupo de control. Es un estudio longitudinal donde, tras un registro inicial de lesiones en la pretemporada 2008, los sujetos fueron expuestos a la variable independiente, utilización de la termografía infrarroja, en el protocolo de prevención de lesiones durante la pretemporada 2009. Los resultados de este trabajo muestran una reducción significativa de hasta el 60% en la frecuencia de lesión durante la pretemporada 2009, y un descenso de la incidencia de lesión total que pasa de 8,3 lesiones por cada 1000 horas de exposición en 2008 a 3,4 en 2009. Con ello, la probabilidad de lesión se redujo considerablemente pasando de un 85% de los jugadores lesionados en 2008 a un 26% en 2009; además, las lesiones de carácter muscular descendieron en 2009 un 70% con respecto al 2008, y los días de baja que causaron todas las lesiones pasó a reducirse un 91,8% en la pretemporada 2009. Por otro lado, el perfil térmico de los jugadores en función de su lateralidad y dominancia, guarda una gran similitud en sus temperaturas, tanto medias como máximas, con temperaturas más elevadas en la zona corporal lumbar y poplítea, y con temperaturas más bajas en tobillos y rodillas. Todas las zonas corporales estudiadas, exceptuando el tobillo (p<0,05), no presentan diferencias significativas entre ambos hemicuerpos, estableciendo un promedio de diferencia entre ambos lados de 0,06±0,16 ºC. Teniendo en cuenta estos resultados, consideramos el límite superior de normalidad de asimetría térmica bilateral en 0,3ºC para todas las zonas corporales estudiadas del miembro inferior exceptuando los tobillos. El parámetro ambiental que más relación tiene con la temperatura registrada por la cámara termográfica es la temperatura de la sala con un coeficiente de correlación cercano a r=1,00, seguido de la presión atmosférica con un coeficiente de correlación cercano r=0,50, y, por último, la humedad que no guarda ningún tipo de relación con la temperatura registrada en cada zona corporal en el rango de valores considerados en el estudio. Por otro lado, los resultados del ANOVA de un factor nos indican que existen diferencias de medias entre los tres grupos formados de temperatura ambiente de sala (1º=18º-21ºC, 2º=22º-24ºC y 3º=25º-31ºC). Además, los resultados de la prueba HSD de Tukey nos indican que existen diferencias entre cada uno de los grupos en todas las zonas corporales estudiadas exceptuando los tobillos. Por último, se propone la ecuación; TC-estándar = TC-real – [0,184 * (TS – 21ºC)] para predecir la influencia de la temperatura ambiente sobre la temperatura registrada por la cámara termográfica. Para concluir, tras los resultados obtenidos, podemos afirmar que la aplicación de un protocolo post-ejercicio de prevención de lesiones basado en la información adquirida a través de valoraciones con termografía infrarroja reduce la incidencia de lesión en el grupo de futbolistas profesionales estudiado. Tenemos que ser conscientes que nos encontramos ante un estudio de campo, donde existen muchos factores que han podido influenciar en los resultados y que son difíciles de controlar. Por lo tanto, debemos ser cautos y concluir que la información adquirida de las evaluaciones termográficas ha sido uno de los aspectos que ayudó a la reducción significativa de la incidencia de lesión en la pretemporada 2009 en el equipo de fútbol profesional español de este estudio, pero que seguramente hayan podido existir otros factores que también hayan favorecido este hecho. ABSTRACT Soccer is a sport with a high incidence of injury. Moreover, in professional soccer injuries lead to a tough recovery process for the players, a reduction athletic performance for them and for their teams, and large economic costs for the club. In this issue, the literature concludes that in the preseason a greater incidence of overuse injury occurs (ie, without contact), and this is a type of injury that we can prevent. Therefore, we consider that it is important to know and develop methods, tools and principles to obtain effective preventive programs that reduce the high injury incidence figures shown in the literature. This study observed and recorded injuries, through the questionnaire F-MARC, from a professional soccer team in the Spanish league during the preseason 2008 (n = 24) and 2009 (n = 24). Moreover, during the 2009 preseason infrared thermography was applied to acquire information about the assimilation of the training load by the players, and this information was used to improve the decision making in the specific post-exercise injury prevention protocols, which were the same used in the previous season 2008. The study had a pre-post design without control group. Is a longitudinal study where, after an initial registration of injuries in the 2008 preseason, subjects were exposed to the independent variable, using infrared thermography, included in the protocol for injury prevention during the 2009 preseason. The results of this study show a significant reduction of up to 60% in the frequency of injury during the 2009 preseason, and a decrease in total injury incidence passing from 8.3 injuries per 1000 hours of exposure in 2008 to 3.4 in 2008. With this, the likelihood of injury decreased significantly from 85% of the players injuried in 2008 to 26% in 2009, also muscle injuries in 2009 fell 70% compared to 2008, and sick leave days that caused by all the injuries happened were reduced a 91.8% in the 2009 preseason. On the other hand, the thermal profile of the players according to their laterality and dominance, is quiet similar in their temperatures, both average and maximum values, with an estimated average of the highest temperatures in the lower back and popliteal areas in the back areas, and lower temperatures in the ankles and knees. All body areas studied, except for the ankle (p <0.05), had no significant differences between both sides of the body, establishing an average difference between both sides of 0.06 ± 0.16 °C. Given these results, we consider the upper limit of normal bilateral thermal asymmetry 0.3 °C for all body areas studied in the lower limb except for ankles. The environmental parameter higher related with temperature recorded by the camera is the temperature of the room with a correlation coefficient close to r = 1.00, followed by atmospheric pressure with a correlation coefficient near r = 0.50, and finally, the humidity that, in the range of values considered in the study, it is not related with temperature in each body area. On the other hand, the results of one-way ANOVA indicate that there are differences between the three temperature of the room groups (1 ° = 18-21 °C, 2 º = 22-24 ºC and 3 º = 25-31 ºC). Moreover, the results of the Tukey HSD test indicate that there are differences between each of the groups for all body areas studied except the ankles. Finally, we propose the equation TC-standard = TC-real – [0,184 * (TS – 21ºC)] to predict the influence of temperature on the temperature recorded by the thermographic camera. In conclusion, we can say from our results that the implementation of a post-exercise injury prevention protocol based on information from assessments with infrared thermography reduces the incidence of injury in professional soccer players. We must be aware that we are facing a field study, where there are many factors that could influence the results and they are difficult to control. Therefore, we must be cautious and conclude that the information acquired from the thermographic evaluation has been one of the aspects that helped to significantly reduce the incidence of injury in the preseason 2009 in the Spanish professional football team, but probably they could exist other factors with a positive effect on the reduction of the injury rates.
Resumo:
Durante los años 60 fueron frecuentes las profecías que anunciaban jornadas laborales de 4-5 horas para el año 2000, y se basaban generalmente en la progresiva sustitución de la mano de obra por tecnología como las electrónicas y los sistemas aplicados; este cambio permitiría un mayor tiempo libre y de ocio. Sin embargo, la realidad parece resultar peor y contraria a esas expectativas, ya que la jornada de trabajo ha ido ampliándose en el sistema productivo simultáneamente con el avance tecnológico en general y, en particular, de las tecnologías de la información y la comunicación (TIC). El incremento de la jornada de trabajo es un proceso general observado en los países de la OCDE desde la transición de los años 1970/80 hasta hoy (en paralelo, precisamente, con la constante pérdida del poder adquisitivo de los salarios). Este artículo pone en relación la extensión de las TIC con la ampliación de la jornada de trabajo y añade, como nota negativa adicional, que el uso combinado del ordenador portátil y del teléfono móvil, en un entorno de Internet, se convierte en un proceso creciente por el que la gente queda laboralmente disponible durante las 24 horas del día.
Resumo:
Independientemente de sus implicaciones en las IDE, los mapas son y se han utilizado para presentar la información existente sobre la Tierra. No están exentos de errores ya que, debido a una mala redacción gráfica, pueden conducir a una mala legibilidad de la información o incluso a una idea equivocada de la realidad que muestran. Los mapas son modelos de la realidad y para eso se utilizan artificios como (a) las escalas, que obligan a reducir el tamaño y simplificar la información, (b) las proyecciones cartográficas que permiten representar la esfericidad de la Tierra sobre un plano, (c) las cartografías temáticas que representan aspectos concretos de la superficie de la Tierra (edafología, climatología, población, etc.) y (d) el lenguaje cartográfico con sus reglas de redacción, sintácticas, ortográficas y semánticas. Este último aspecto es clave para la producción de mapas que cumplan el objetivo de presentar adecuadamente la información geográfica, al que se dedica este capítulo. La redacción en base a sistemas de símbolos dispone de unas normas relacionadas con las capacidades perceptivas del sistema visual humano que no deben infringirse. El conocimiento de las variables gráficas que pueden aplicarse a la simbología (la forma, el color, el tamaño, etc.); las ventajas y dificultades que tienen cada una de esas variables para la percepción; su aplicación a los diferentes fenómenos, ya sean puntuales lineales o superficiales; la forma en la que se haya adquirido la información que los define (información cualitativa, ordenada o cuantitativa), permitirá garantizar que la información gráfica enviada al lector no sólo sea entendida sino que sea correctamente comprendida. Vulnerar el uso de las variables visuales, desconocer el funcionamiento de la percepción respecto a los estímulos visuales y no tener en cuenta el tipo de información que define a los fenómenos, crea errores como se muestra en el presente capítulo a través de unos ejemplos finales.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
La tecnología ha cambiado el mundo, pero las consecuencias de estos cambios en la sociedad no siempre se han pronosticado bien. Las Tecnologías de la Información transformaron el método de producción industrial. La nueva industria produce ideas y conceptos, no objetos. Este cambio ha dado como resultado una sociedad dualizada, ha desaparecido gran parte de la clase media y han aumentado las diferencias entre la clase alta y la baja. Las exigencias educativas de los nuevos puestos de trabajo innovadores son superiores a los de la industria tradicional, pero inferiores en los puestos de trabajo de producción. Además, el número de puestos de trabajo disponibles de este tipo es menor que en la industria tradicional, se necesita menos mano de obra, los procesos se pueden automatizar, las tareas mecánicas se aprenden en poco tiempo y son trabajos temporales, cuyo número dependerá de la demanda global. Para que el proceso de innovación funcione, las empresas se reúnen en las zonas financieras de grandes ciudades, como Nueva York o Londres, que fueron las primeras con acceso a las redes de telecomunicación. De esta manera se producen sinergias que contribuyen a mejorar el proceso innovador global. Estas ideas y conceptos que cambian el mundo necesitan de este entorno de producción, que no puede ser replicado, y son tan importantes que su acceso está restringido para la mayor parte del mundo por distintos mecanismos de control. El despliegue de las redes de telecomunicaciones inalámbricas ha sido enorme en los últimos años. El cliente busca llamar desde cualquier lugar y llevar un acceso a Internet en teléfono móvil. Para conseguirlo, las operadoras de telefonía móvil necesitan poner antenas de telefonía móvil en las ciudades, pero la instalación cerca de edificios no está siendo fácil. Pocos quieren tener una antena cerca por los problemas de salud de las personas que padecen los que ya viven o trabajan cerca de una. Los efectos del electromagnetismo en los seres humanos no están claros y provocan desconfianza hacia las antenas. La digitalización de los contenidos, que ha sido necesaria para transmitir contenido en Internet, permite que cualquier persona con un ordenador y una conexión a Internet pueda publicar un disco, una película o un libro. Pero esa persona también puede copiar los originales y enviarlos a cualquier lugar del mundo sin el permiso del autor. Con el fin de controlar la copia no autorizada, los derechos de autor se están usando para cambiar leyes e incluir sistemas de censura en Internet. Estos sistemas permiten a los autores eliminar el contenido ilegal, pero también pueden ser usados para censurar cualquier tipo de información. El control de la información es poder y usarlo de una manera o de otra afecta a todo el planeta. El problema no es la tecnología, que es solo una herramienta, es la forma que tienen los gobiernos y las grandes empresas de usarlo. Technology has changed the world, but the consequences of these changes in society have not always been well predicted. The Information Technology transformed the industrial production method. The new industry produces ideas and concepts, not objects. This change has resulted in a society dualized, most of the middle class has disappeared and the differences between high and low class have increased. The educational requirements of new innovative jobs are higher than the ones of the traditional industry, but lower in production jobs. Moreover, the number of available jobs of this type is lower than in the traditional industry, it takes less manpower, processes can be automated, mechanical tasks are learned in a short time and jobs are temporary, whose number depends on global demand. For the innovation process works, companies meet in the business districts of large cities, like New York or London, which were the first with access to telecommunications networks. This will produce synergies that improve the overall innovation process. These ideas and concepts that change the world need this production environment, which cannot be replicated, and are so important that their access is restricted to most of the world by different control mechanisms. The deploy of wireless telecommunications networks has been enormous in recent years. The client seeks to call from anywhere and to bring Internet access in his mobile phone. To achieve this, mobile operators need to put cell towers in cities, but the installation near buildings is not being easy. Just a few want to have an antenna closely because of the health problems suffered by people who already live or work near one. The effects of electromagnetism in humans are unclear and cause distrust of antennas. The digitization of content, which has been necessary to transmit Internet content, allows anyone with a computer and an Internet connection to be able to publish an album, a movie or a book. But that person can also copy the originals and send them anywhere in the world without the author's permission. In order to control the unauthorized copying, copyright is being used to change laws and include Internet censorship systems. These systems allow authors to eliminate illegal content, but may also be used to censor any information. The control of knowledge is power and using it in one way or another affects the whole planet. The problem is not technology, which is just a tool, but the way that governments and large corporations use it.
Resumo:
Este artículo de síntesis es la transposición de los dos primeros puntos de nuestra memoria de solicitud para la obtención de una de las becas del Fondo IBM del Centro de Cálculo de la Universidad de Madrid en su primera convocatoria (noviembre de 1968). El artículo representa un punto de vista personal sobre relaciones poco conocidas o discutidas entre diferentes aspectos de las teorías de los sistemas cibernéticos. Un año después (diciembre de 1969) el fruto de nuestro trabajo ha sido recogido en. una extensa memoria donde, junto a una presentación de origen bibliográfico, de la teoría de códigos lineales desde un ángulo matemático y en especial de los códigos cíclicos, se publica un conjunto de resultados originales en el campo de la detección y corrección de errores
Resumo:
Esta investigación se enmarca dentro de los denominados lenguajes de especialidad que para esta tesis será el de las Tecnologías de la Información y la Comunicación (TIC). De todos los aspectos relacionados con el estudio de estos lenguajes que pudieran tener interés lingüístico ha primado el análisis del componente terminológico. Tradicionalmente la conceptualización de un campo del saber se representaba mayoritariamente a través del elemento nominal, así lo defiende la Teoría General de la Terminología (Wüster, 1968). Tanto la lexicología como la lexicografía han aportado importantes contribuciones a los estudios terminológicos para la identificación del componente léxico a través del cual se transmite la información especializada. No obstante esos primeros estudios terminológicos que apuntaban al sustantivo como elmentos denominativo-conceptual, otras teorías más recientes, entre las que destacamos la Teoría Comunicativa de la Terminología (Cabré, 1999) identifican otras estructuras morfosintácticas integradas por otros elementos no nominales portadores igualmente de esa carga conceptual. A partir de esta consideración, hemos seleccionado para este estudio el adjetivo relacional en tanto que representa otra categoría gramatical distinta al sustantivo y mantiene un vínculo con éste debido a su procedencia. Todo lo cual puede suscitar cierto interés terminológico. A través de esta investigación, nos hemos propuesto demostrar las siguientes hipótesis: 1. El adjetivo relacional aporta contenido especializado en su asociación con el componente nominal. 2. El adjetivo relacional es portador de un valor semántico que hace posible identificar con más precisión la relación conceptual de los elementos -adjetivo y sustantivo - de la combinación léxica resultante, especialmente en algunas formaciones ambiguas. 3. El adjetivo relacional, como modificador natural del sustantivo al que acompaña, podría imponer cierta restricción en sus combinaciones y, por tanto, hacer una selección discriminada de los integrantes de la combinación léxica especializada. Teniendo en cuenta las anteriores hipótesis, esta investigación ha delimitado y caracterizado el segmento léxico objeto de estudio: la ‘combinación léxica especializada (CLE)’ formalmente representada por la estructura sintáctica [adjR+n], en donde adjR es el adjetivo y n el sustantivo al que acompaña. De igual forma hemos descrito el marco teórico desde el que abordar nuestro análisis. Se trata de la teoría del Lexicón Generatvio (LG) y de la representación semántica (Pustojovsky, 1995) que propone como explicación de la generación de significados. Hemos analizado las distintas estructuras de representación léxica y en especial la estructura qualia a través de la cual hemos identificado la relación semántica que mantienen los dos ítems léxicos [adjR+n] de la estructura sintáctica de nuestro estudio. El estudio semántico de las dos piezas léxicas ha permitido, además, comprobar el valor denominativo del adjetivo en la combinación. Ha sido necesario elaborar un corpus de textos escritos en inglés y español pertenecientes al discurso de especialidad de las TIC. Este material ha sido procesado para nuestros fines utilizando distintas herramientas electrónicas. Se ha hecho uso de lexicones electrónicos, diccionarios online generales y de especialidad y corpus de referencia online, estos últimos para poder eventualmente validad nuetros datos. Asimismo se han utilizado motores de búsqueda, entre ellos WordNet Search 3.1, para obtener la información semántica de nuestros elementos léxicos. Nuestras conclusiones han corroborado las hipótesis que se planteaban en esta tesis, en especial la referente al valor denominativo-conceptual del adjetivo relacional el cual, junto con el sustantivo al que acompaña, forma parte de la representación cognitiva del lenguaje de especialidad de las TIC. Como continuación a este estudio se proponen sugerencias sobre líneas futuras de investigación así como el diseño de herramientas informáticas que pudieran incorporar estos datos semánticos como complemento de los ítems léxicos dotados de valor denominativo-conceptual. ABSTRACT This research falls within the field of the so-called Specialized Languages which for the purpose of this study is the Information and Communication Technology (ICT) discourse. Considering their several distinguishing features terminology concentrates our interest from the point of view of linguistics. It is broadly assumed that terms represent concepts of a subject field. For the classical view of terminology (Wüster, 1968) these terms are formally represented by nouns. Both lexicology and terminology have made significant contributions to the study of terms. Later research as well as other theories on Terminology such as the Communicative Theory of Terminology (Cabré, 1993) have shown that other lexical units can also represent knowledge organization. On these bases, we have focused our research on the relational adjective which represents a functional unit different from a noun while still connected to the noun by means of its nominal root. This may have a potential terminological interest. Therefore the present research is based on the next hypotheses: 1. The relational adjective conveys specialized information when combined with the noun. 2. The relational adjective has a semantic meaning which helps understand the conceptual relationship between the adjective and the noun being modified and disambiguate certain senses of the resulting lexical combination. 3. The relational adjective may impose some restrictions when choosing the nouns it modifies. Considering the above hypotheses, this study has identified and described a multi-word lexical unit pattern [Radj+n] referred to as a Specialized Lexical Combination (SLC) linguistically realized by a relational adjective, Radj, and a noun, n. The analysis of such a syntactic pattern is addressed from the framework of the Generative Lexicon (Pustojovsky, 1995). Such theory provides several levels of semantic description which help lexical decomposition performed generatively. These levels of semantic representation are connected through generative operations or generative devices which account for the compositional interpretation of any linguistic utterance in a given context. This study analyses these different levels and focuses on one of them, i.e. the qualia structure since it may encode the conceptual meaning of the syntactic pattern [Radj+n]. The semantic study of these two lexical items has ultimately confirmed the conceptual meaning of the relational adjective. A corpus made of online ICT articles from magazines written in English and Spanish – some being their translations - has been used for the word extraction. For this purpose some word processing software packages have been employed. Moreover online general language and specialized language dictionaries have been consulted. Search engines, namely WordNet Search 3.1, have been also exploited to find the semantic information of our lexical units. Online reference corpora in English and Spanish have been used for a contrastive analysis of our data. Finally our conclusions have confirmed our initial hypotheses, i.e. relational adjectives are specialized lexical units which together with the nouns are part of the knowledge representation of the ICT subject field. Proposals for new research have been made together with some other suggestions for the design of computer applications to visually show the conceptual meaning of certain lexical units.