862 resultados para Procedimientos metodológicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo presenta un análisis del movimiento cooperativo en el agro pampeano y en el resto del país, tal como fuera retratado por el Censo Nacional Agropecuario del año 1937. Tiene por objetivo aportar herramientas metodológicas para el conocimiento del grado de arraigo del cooperativismo agropecuario entre los productores agrarios a partir del uso de índices de asociación, adhesión e integración. Finalmente se concluye del estudio estadístico de esos indicadores que la doctrina cooperativa jugó un papel muy relativo en la estructuración de las opciones económicas efectivas de bases sociales del movimiento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fil: Castrillo, Belén. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El escrito reflexiona sobre la adecuación teórica y metodológica del recurso a las categorías institución total, dispositivo y disciplina, para investigar problemáticas recientes en el campo de la salud-enfermedad-atención, particularmente las denominadas adicciones a las drogas. De la mano de numerosas investigaciones empíricas, ciertos conceptos se anudan en los análisis, asociándose disciplina-encierro, e institución total-espacio cerrado. El escrito propone el desacople de estas nociones y la recuperación de su productividad analítica, desde la investigación en un dispositivo terapéutico ambulatorio para la adicción a drogas del Area Metropolitana de Buenos Aires. Se aborda esta problemática desde una perspectiva etnográfica, con análisis documental, observación participante y entrevistas realizadas a profesionales de la salud de la institución, personal de apoyo y usuarios. Se concluye que las formulaciones de Goffman y Foucault ayudan a comprender la existencia de modalidades de tratamiento para las adicciones a las drogas que, sin fundarse en el encierro como técnica primordial de control de los cuerpos, sostienen un proceso de clausura y despojo significativos; y que la renuncia a homologar la clausura, y el espacio cerrado a una materialidad, permitió dar realce a una vivencia de despojo subjetivo de parte de quienes se encuentran en tratamiento en la institución

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se presenta un status quaestionis de las principales tendencias críticas del siglo XX sobre la "Eneida ovidiana" y se proponen cuatro parámetros metodológicos para abordar la secuencia: en primer lugar, considerar las razones para la inclusión de una Odisea en la "Eneida ovidiana", en el marco de las discusiones "sobre" género e influencias de la década del 90; en segundo lugar, precisar las relaciones de la secuencia con el final romano de la obra y las posibilidades de que, aun sin un augusteísmo político, haya una afirmación de Roma; en tercer lugar, otorgarle a la idea de la apoteosis y a la apoteosis de Eneas un papel destacado en la secuencia y en el plan de la obra; por último, aportar algo a la discusión sobre la concepción de hombre en las Metamorfosis y sus diferencias y complemento respecto de Virgilio

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El tema central se vincula con el Ordenamiento territorial y su correlato en herramientas y metodologías de intervención y gestión urbanas, desde una visión del saber ambiental. A partir de los conceptos categoriales de territorio, actores y ambiente se propone aportar, por un lado metodologías para la comprensión, explicación y análisis del territorio y sus lugares, por el otro mecanismos de gestión para una normativa basada en la inteligencia territorial. Desde estos conceptos se pretende entonces, realizar una vinculación conceptual y normativa para la gestión sustentable del territorio que logre salvar las diferencias entre el estatismo normativo y la dinámica socio-espacial. El área objeto de estudio, es el aquella denominada aquí Area de La Bajada. Así, para un abordaje integral y conceptual del territorio se trabaja desde lo metodológico con los métodos Territorii y Stlocus. Incluyendo mecanismos participativos, como talleres y encuestas que aporten a la comprensión del territorio real, pensado, legal, vivido y posible, propuestos por Territorii que estructura el proceso de lectura y comprensión del lugar. Por su parte el método Stlocus en su ensamble con Territorii permite indagar y analizar el lugar, desde el reconocimiento de patrones de ocupación del lugar, apropiación territorial y vocaciones. Conceptos que llevarán a incoporar a la normativa categorías y dimensiones de urbanístico-territoriales. Desde lo ambiental, se cree de gran importancia el desarrollo del riesgo (vulnerabilidad + amenazas) como concepto operativo para la obtención de dos objetivos: la inclusión de los actores a la dinámica de gestión y la operativización de acciones ambientales directas sobre el territorio. Finalmente, luego del proceso de comprensión y análisis iniciado se arriba a tres cuestiones fundamentales: los métodos propuestos son herramientas flexibles que aportan a la comprensión del territorio desde conceptos categoriales de espacio se torna fundamental, los actores pueden ser incluidos en esta indagación en cualquier etapa del proceso. Sin embargo, aquí aparece la terca línea fundamental: la participación y la gestión de territorios sustentables. Para ello es necesario iniciar un proceso de gobernanza que logre minimizar los impactos de los procesos distorsivos del mercado mediante un Estado proactivo que regule de manera inclusiva, para reducir al mínimo las diferentes dinámicas entre los cuerpos normativos, y su vinculación directa con el territorio deseado por todos los ciudadanos a través de una normativa urbana con inteligencia territorial

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las gemas se evalúan mediante la norma de clasificación visual (UNE 56544), pero su aplicación en estructuras existentes y grandes escuadrías resulta poco eficaz y conduce a estimaciones demasiado conservadoras. Este trabajo analiza la influencia de las gemas comparando la resistencia de piezas con gemas y piezas correctamente escuadradas. Se han analizado 218 piezas de pino silvestre con dimensiones nominales 150 x 200 x 4.200 mm, de las que 102 presentaban una gema completa a lo largo de toda su longitud y el resto estaban correctamente escuadradas. En las piezas con gema se ha medido la altura de la sección cada 30 cm (altura en cada cara y altura máxima). Para determinar la resistencia se han ensayado todas las piezas de acuerdo a la norma EN 408. Se ha comparado la resistencia obtenida para las piezas con gema, diferenciando si la gema se encuentra en el borde comprimido o en el borde traccionado, con las piezas escuadradas. Puede concluirse que la presencia de gemas disminuye la resistencia excepto si la gema se encuentra en el borde traccionado, en cuyo caso los resultados obtenidos han sido similares a los de las piezas escuadradas. The wanes on structural timber are evaluated according to the visual grading standard (UNE 56544), but its application on existing structures and large cross sections is ineffective and leads to conservative estimations. This paper analyzes the influence of the wanes by comparing the resistance of pieces with wanes and square pieces. 218 pieces of Scotch pine with nominal dimensions 150 x 200 x 4200 mm have been analyzed, 102 of them had a complete wane along its length and the rest were properly squared. The height of the cross section was measured every 30 cm (the height on each side and the maximum height) for the pieces with wane. The bending strength of all the pieces was obtained according to the EN 408 standard. The bending strength of the pieces with wane has been compared with the strength of the squared pieces, taking into account if the wane is positioned on the compressed edge or on the tensioned edge. It can be concluded that the bending strength of the pieces with wanes is lower than the one of squared pieces, except if the wanes are on the tensioned edge of the beam.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigación analiza la capacidad de la materia de albergar información, y propone una clasificación que ordene todas sus manifestaciones. El objetivo de esta tesis es describir estos procedimientos (que son tres y dan lugar a cada uno de sus tres apítulos), y establecer cómo todos los procesos de manipulación de la materia, que dejan algún rastro sobre ella, se producen siguiendo alguno de los mismos. Para llegar a este objetivo, se procura realizar un exhaustivo recorrido a través de numerosas y diversas experiencias de alteración de la materia, para dar lugar a una extensa clasificación que siente las bases para interpretar cualquier otra intervención. Es decir, el objetivo, no es tanto hacer una clasificación de las intervenciones más relevantes de la Historia, sino descubrir una estructura, un orden, una taxonomía en estas actuaciones sobre la materia que permita interpretar cualquier manifestación, tanto del pasado como del futuro. Este estudio pretende abordar un aspecto parcial, aunque fundamental, de la construcción dando prioridad a la materialidad, sin la intención de negar el carácter espacial de la forma arquitectónica. Se concentra en los parámetros relativos a la interpretación de la materia. Se trata de una atención tan cercana al objeto que evita su entendimiento global, para profundizar en las razones parciales específicamente materiales. Se desatiende al conjunto para descifrar el fragmento. En Arquitectura, la materia ha sido desde siempre objeto de investigación, y por lo tanto ha sido receptora y almacén de los avances logrados. El interés principal de esta tesis se concentra en la manipulación de la materia que ha sido llevada a cabo con el propósito de construir, pero el ámbito de la construcción no es exclusivo de la arquitectura, por lo que otras actividades como el arte, y las ciencias naturales aportan aspectos y avances que han sido recogidas asimismo dentro de la investigación. De hecho, muchas de estas actividades ni siquiera están relacionadas con la construcción, pero realizan o desvelan procedimientos relevantes en el campo del trabajo sobre la materia, que hacen necesaria su inclusión. De esta forma se ofrece un acercamiento poliédrico desde puntos de vista interdisciplinares, para describir con rigor las posibilidades contrastadas en construcciones, tanto existentes como aplicaciones potenciales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis analiza los elementos que afectan a la evaluación del rendimiento dentro de la técnica de radiodiagnóstico mediante tomografía por emisión de positrones (PET), centrándose en escáneres preclínicos. Se exploran las posibilidades de los protocolos estándar de evaluación sobre los siguientes aspectos: su uso como herramienta para validar programas de simulación Montecarlo, como método para la comparación de escáneres y su validez en el estudio del efecto sobre la calidad de imagen al utilizar radioisótopos alternativos. Inicialmente se estudian los métodos de evaluación orientados a la validación de simulaciones PET, para ello se presenta el programa GAMOS como entorno de simulación y se muestran los resultados de su validación basada en el estándar NEMA NU 4-2008 para escáneres preclínicos. Esta validación se ha realizado mediante la comparación de los resultados simulados frente a adquisiciones reales en el equipo ClearPET, describiendo la metodología de evaluación y selección de los parámetros NEMA. En este apartado también se mencionan las aportaciones desarrolladas en GAMOS para aplicaciones PET, como la inclusión de herramientas para la reconstrucción de imágenes. Por otro lado, la evaluación NEMA del ClearPET es utilizada para comparar su rendimiento frente a otro escáner preclínico: el sistema rPET-1. Esto supone la primera caracterización NEMA NU 4 completa de ambos equipos; al mismo tiempo que se analiza cómo afectan las importantes diferencias de diseño entre ellos, especialmente el tamaño axial del campo de visión y la configuración de los detectores. El 68Ga es uno de los radioisótopos no convencionales en imagen PET que está experimentando un mayor desarrollo, sin embargo, presenta la desventaja del amplio rango o distancia recorrida por el positrón emitido. Además del rango del positrón, otra propiedad física característica de los radioisótopos PET que puede afectar a la imagen es la emisión de fotones gamma adicionales, tal como le ocurre al isótopo 48V. En esta tesis se evalúan dichos efectos mediante estudios de resolución espacial y calidad de imagen NEMA. Finalmente, se analiza el alcance del protocolo NEMA NU 4-2008 cuando se utiliza para este propósito, adaptándolo a tal fin y proponiendo posibles modificaciones. Abstract This thesis analyzes the factors affecting the performance evaluation in positron emission tomography (PET) imaging, focusing on preclinical scanners. It explores the possibilities of standard protocols of assessment on the following aspects: their use as tools to validate Monte Carlo simulation programs, their usefulness as a method for comparing scanners and their validity in the study of the effect of alternative radioisotopes on image quality. Initially we study the methods of performance evaluation oriented to validate PET simulations. For this we present the GAMOS program as a simulation framework and show the results of its validation based on the standard NEMA NU 4-2008 for preclinical PET scanners. This has been accomplished by comparing simulated results against experimental acquisitions in the ClearPET scanner, describing the methodology for the evaluation and selection of NEMA parameters. This section also mentions the contributions developed in GAMOS for PET applications, such as the inclusion of tools for image reconstruction. Furthermore, the evaluation of the ClearPET scanner is used to compare its performance against another preclinical scanner, specifically the rPET-1 system. This is the first complete NEMA NU 4 based characterization study of both systems. At the same time we analyze how do the significant design differences of these two systems, especially the size of the axial field of view and the detectors configuration affect their performance characteristics. 68Ga is one of the unconventional radioisotopes in PET imaging the use of which is currently significantly increasing; however, it presents the disadvantage of the long positron range (distance traveled by the emitted positron before annihilating with an electron). Besides the positron range, additional gamma photon emission is another physical property characteristic of PET radioisotopes that can affect the reconstructed image quality, as it happens to the isotope 48V. In this thesis we assess these effects through studies of spatial resolution and image quality. Finally, we analyze the scope of the NEMA NU 4-2008 to carry out such studies, adapting it and proposing possible modifications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este artículo se ofrece una visión rápida de las necesidades del uso de buscadores para la gestión del conocimiento y de las ideas básicas de su funcionamiento. A continuación se presenta el método CSORA (Classify, Search, Organize, Relate, Adapt), conjunto de procedimientos técnicos y metodológicos que mejoran la eficacia de los buscadores haciendo posible encontrar información relevante en entornos con mucha información o información especializada. Finalmente se muestra su integración en los motores de búsqueda y en las conclusiones se incluyen las ventajas de su uso, verificadas a través de experiencias realizadas y las líneas de investigación futuras. ABSTRACT: In this paper we offer a fast overview of the usage needs of search engines for knowledge management, as well as the basic ideas about how they work. We then present the CSORA method (Classify, Search, Organize, Relate and Adapt), a set of technical and methodological procedures that improve the efficacy of search engines, making it possible to find relevant information in environments with lots of information or specialized information. Last, we show the integration of the method into the search engines. The conclusions include a description of the advantages of using this method, verified by experiments carried out, and the lines of future work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La vida del pueblo Mapuche ha trascendido los procesos colonizadores incásicos, españoles y chilenos, a los cuales se ha tenido que enfrentar. Los mapuche habitan los territorios de la IX Región de la Araucanía desde tiempos inmemoriales. Sin embargo, han sido desarticulados como sociedad como consecuencia del llamado proceso de ¿Pacificación de la Araucanía¿, practicado por el Estado desde 1880 y considerado ¿colonización¿ por los Mapuche, que desde entonces han ocupado el segmento más bajo y precario de la sociedad chilena. Esta tesis doctoral propone actuar en este ámbito, aportando desde la disciplina arquitectónica, aquellos procedimientos y herramientas encaminadas a identificar y analizar las características del hábitat residencial Mapuche en el momento actual. Este propósito requiere acudir a los avances teóricos y metodológicos practicados por las ciencias humanas, en especial por la antropología, pues la arquitectura necesita progresar en este terreno para superar prácticas y procedimientos intuitivos y, en ocasiones, todavía poco sistemáticos. Para ello se han establecido hipótesis, objetivos y métodos tendentes a identificar el hábitat residencial que corresponde al Mapuche a través de una muestra de unas pocas familias ubicadas en un sector llamado Chomío, de la Comuna de Padre Las Casas, a 10 km de distancia al sureste de la ciudad de Temuco. Para el desarrollo de la tesis doctoral, que comprende un importante trabajo de campo, se han estudiado las teorías y métodos etnológicos y se ha incorporado la interpretación de los significados y formas de comunicación simbólica que practica el ser humano para identificar la cultura, lo que representa una visión novedosa y un avance sorprendentemente positivo para la práctica del diseño en el campo de la arquitectura doméstica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para la realización del presente trabajo, hemos procurado seguir una norma de conducta que, persiguiendo primordialmente la finalidad que lo motivó, salvase, en lo posible, las dos dificultades esenciales que se nos presentaban desde el primer momento que de él nos ocupamos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los últimos años se observa una creciente demanda de modelos 3D, especialmente orientados al control dimensional dentro de los diferentes campos de la arquitectura o ingeniería, en los que tanto la instrumentación, los métodos de captura (fotogrametría digital y láser escáner), como el tratamiento posterior de la información, requieren de procedimientos y modernas herramientas informáticas acordes con los fines específicos. Los ensayos realizados se encuadran dentro de los métodos de homologación cinegética, que son en definitiva los distintos sistemas de medición y puntuación de las diferentes especies de caza mayor. En este estudio se ha seleccionado un trofeo de gamo para la realización de los diferentes tratamientos, análisis y modelización. En la actualidad los organismos competentes en esta materia emplean, para realizar estos trabajos, mediciones directas y baremos específicos, principalmente con instrumentación analógica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El papel de la tecnología en las organizaciones es mucho más relevante, lo que en su momento era innovación, hoy por hoy es un soporte a varias funciones del negocio y la automatización de procedimientos vitales para el alcance de la misión de la organización. Esto se debe a que la tecnología ha transformado y sigue transformando los procesos de negocio que soportan los servicios y ayudan a conseguir los objetivos y la misión de la organización. Un activo tecnológico cada vez más importante para el buen funcionamiento de las organizaciones es el software. Dada la complejidad de los procesos en los que interviene, cada vez su importancia es más crítica y los defectos en su fabricación son el objetivo fundamental de los delincuentes y uno de los mayores riesgos para las organizaciones. Hay que considerar que no todas las organizaciones construyen o diseñan software, algunas veces lo hace un tercero, lo adquieren a otra organización, o puede ser contratado como SaaS. Pero durante el proceso de construcción, adquisición o contrato ¿Se han tenido en cuenta las amenazas y nuevos ambientes de riesgos a los que se expone la organización? ¿Se ha considerado la relación entre el software y los servicios de alto valor de la organización? ¿Existen planes de seguridad y continuidad sobre los servicios? Tendremos que establecer estrategias de Protección y Sostenimiento que garanticen que el software tendrá la máxima disponibilidad posible para funcionar posteriormente a un evento de interrupción o estrés –así sea en condiciones degradadas– evitando paradas en los servicios, lo que llamamos resiliencia operacional. Esto será una estrategia desde la dirección hasta la operación, asegurando que durante todo el ciclo de vida del software y durante su administración se sigan los procedimientos, planes, metodologías y técnicas necesarias que aseguren que el software es resiliente y que cumple con los requisitos de resiliencia a nivel operacional. Esta guía busca orientar a la alta gerencia, a los mandos medios y a nivel profesional en las prácticas que implican asegurar la resiliencia operacional del software y la resiliencia del software como tal, y está basada en marcos metodológicos y de control, estándares, modelos y mejores prácticas actuales que soportan los procesos que implica la consideración de la resiliencia operacional sobre el software. Del mismo modo se considerarán los tipos de software y las prácticas a implantar para cada uno de ellos, orientado al proceso que implica y a las responsabilidades que demandan.