999 resultados para Inteligencia límite
Resumo:
Los proyectos geotécnicos, ya sean civiles, mineros, de desarrollo urbano, etcétera, en la medida que implican afectaciones del medio físico, necesitan disponer de un modelo geológico y geomecánico con fines de una concepción racional con dimensionamiento adecuado y seguro. En este sentido la línea de desarrollo e investigaciones ya comenzada en el marco interdisciplinario (geotécnico, matemático y computacional) tiende a instrumentar modelizaciones geológico-geotécnicas que de acuerdo a la experiencia de los directores resultan mayormente aplicables a la solución de problemas en el campo de la geomecánica. De este modo las actividades previstas en el presente plan de trabajo son las siguientes: 1. Cuantificación estocástica de la geometría de macizos rocosos. Se aplicarán nuevos aportes a la modelización estructural ya realizada, tendiente al abordaje estocástico de la bloquimetría de los macizos rocosos. 2. Estabilidad de Taludes por equilibrio límite, evaluación probabilística del factor de seguridad. Se investigarán aproximaciones probabilística de este tipo de falla, utilizando variables randómicas de input. 3. Modelo predictivo para la deformabilidad de macizos rocosos. Los estudios en este aspecto tratarán el desarrollo de un sistema analítico de evaluación, con base estadística y experimental orientado a la evaluación de la deformabilidad de los macizos rocosos fracturados. 4. Modelización estructural aplicada a la determinación de la permeabilidad de macizos rocosos. Se estudiarán relaciones entre el tensor de permeabilidad de los macizos rocosos y las condiciones de fracturamiento de los mismos.
Resumo:
Diversas disciplinas científicas tales como la Psicología, las neurociencias, la psicología evolutiva, la inteligencia artificial, la lingüística, etc., abordan el estudio de los fenómenos mentales desde diferentes ángulos y con presupuestos y metodologías particulares. Por otra parte, en el marco disciplinario de la filosofía de la mente, especialmente en los últimos años, se han encarado investigaciones en torno a distintos tópicos especiales (representación, causación mental, intencionalidad, procesamiento de información, fenómenos cualitativos, subjetividad, auto-conocimiento, etc.) que han sido discutidos en diferentes niveles de análisis: ontológico, epistemológico, metodológico, semántico. Esta situación trae como consecuencia el desarrollo de investigaciones paralelas cuyas vinculaciones sólo excepcionalmente son advertidas, e incluso en el caso de algunas disciplinas aplicadas, ni siquiera se consideran los resultados de las indagaciones teóricas, lo que las lleva a incurrir tanto en errores conceptuales como la interpretación. (...) En la anterior etapa de investigación hemos logrado realizar un relevamiento general, en algunas de las disciplinas mencionadas, de los distintos marcos conceptuales y explicativos empleados en teorías de la intencionalidad. En esta nueva etapa nos proponemos analizar y evaluar las principales dificultades y discusiones epistemológicas implicadas en el intento de construir una única teoría global acerca de lo mental, vinculando diferentes disciplinas. (...) En esta primera etapa prevemos abordar el problema planteado abocándonos al estudio de una temática especial, presente en los desarrollos teóricos de las distintas disciplinas e ineludible para la construcción de una teoría transdisciplinaria acerca de los fenómenos mentales: el problema de la conciencia. (...) Objetivos específicos: 1. Examinar las teorías alternativas de la conciencia (empíricas y filosóficas) discriminando en especial sus presupuestos epistemológicos. 2. Comparar los marcos teóricos globales que se desprenden de las teorías de la conciencia con las interpretaciones que de ella se postulan en los distintos contextos disciplinarios (psicología, lingüística, etc.). 3. Evaluar la viabilidad de una teoría unitaria de la conciencia, atendiendo a las condiciones de adecuación epistemológica de acuerdo con un enfoque interdisciplinario.
Resumo:
Lo buscado en este proyecto es desarrollar un software de aplicación que le permita la médico especialista, sin demasiado esfuerzo, la búsqueda de patologías en un estudio Holter de 24 horas de un paciente ambulatorio. El proyecto se realizará con la aplicación de las nuevas técnicas de redes neuronales, tratando con las mismas de aislar e identificar variadas patologías cardíacas, con distintos tipos de vecindades como entrada a la red neuronal y además, completarlo con un sistema experto de ayuda al médico sugiriéndole la patología posible ya registrada con el adquisidor. Importancia del proyecto: El mismo tiene un carácter imperativo desde el punto de vista del usuario del sistema, ya que un médico no puede estar viendo 24 hs. de estudio cardíaco, sino que el sistema debe ser capaz de avisarle al médico en qué parte del estudio hay una posible patología y así acortar el tiempo de diagnóstico del estudio a menos de una hora de análisis. (...) Los objetivos particulares de este proyecto son: * Desarrollo de software para tratamiento de señales fisiológicas de estudios cardíacos, en particular Holter para poder determinar variadas patologías y si los resultados son positivos, se realizaría una transferencia de esta inteligencia del reconocimiento de patologías al sistema de adquisidor de datos, de tal manera que adquiera los eventos patológicamente positivos.
Resumo:
Este proyecto de investigación pretende ser un paso más en complejidad y profundidad dentro del plan de trabajo sobre comprensión lectora en sujetos escolarizados del nivel medio en Córdoba, capital. En esta etapa se estima conveniente: a) avanzar sobre los libros en los cuales los adolescentes se nutren de "lectura" escolar a fin de estipular qué "textos" tiene internalizado el alumno y cómo opera esa internalización en el proceso de comprensión lectora, b) trabajar con los docentes que, a cargo de cursos y/o áreas, necesitan una conducción para reciclar su operación pedagógico-didáctica en comprensión lectora, así como los fundamentos teóricos y, con esos docentes, ir corroborando los intentos investigativos del proyecto, c) todo ello acompañado de una línea sostenida de estudio teórico -atento a la abundante bibliografía que esta apareciendo en todo el mundo occidental- en particular a la luz de lo que evidencie el estudio estadístico que se haga al corpus de pruebas de lectura comprensiva aplicadas durante 1993/94, en 448 sujetos escolarizados de Córdoba (ver anexo), d) continuar con el trabajo compartido, vía convenio de Universidad a Universidad, con el prestigioso Instituto de Literatura y Ciencias del Lenguaje de Valparaíso, Chile, intentando acercarse a realidades similares en ambos países. El proyecto cobra importancia en tanto y en cuanto: a) los problemas de comprensión y de producción lingüística están siendo atentamente mirados por la interdisciplina actual (psicolingüística, neurolingüística, ciencias de la educación, inteligencia artificial), b) los nuevos contenidos curriculares para el área de lengua que se implementarán próximamente, centran la atención en la aptitud comprensivo-productiva del alumno, lo que requiere, por una parte, estar informado de cómo "ocurre" la comprensión para saber dónde y cómo habría que ratificar caminos y la otra, preparar al docente para una nueva manera de encarar el trabajo áulico que, en lo que atañe a comprensión o a producción, requieren hoy vías específicas (hay sostenida bibliografía ad-hoc). Si el mundo está reclamando excelencia en educación y si a las universidades se les pide salir a la realidad de los hechos para aportar su ciencia, se estima que este proyecto, concatenando preocupación por el proceso de enseñanza aprendizaje de la lengua y preparación teórica, pueda ser una humilde contribución a esas aspiraciones.
Resumo:
El electrodo de disco rotante es una de las técnicas más útiles y más ampliamente empleada en el estudio de la cinética de reacciones de electrodo. Sin embargo, la construcción de electrodos de disco rotante convencionales, que involucra la inclusión del material de electrodo de una vaina de material aislante, no siempre es posible o conveniente. Por ejemplo, cuando es necesario utilizar materiales monocristalinos, se presentan numerosas dificultades debidas principalmente a su extrema fragilidad. (...) Objetivos generales * Se intenta establecer la aplicabilidad de la técnica del electrodo de disco-menisco rotante en el estudio de la cinética de reacciones de transferencia de carga con reacciones químicas acopladas. En particular, se estudiarán los mecanismos de reacción que involucran procesos catalíticos y ECE (electroquímico-químico-electroquímico). Objetivos específicos * Determinar las desviaciones que produce la presencia del menisco de electrolito en las curvas experimentales de corriente límite vs. raíz cuadrada de la velocidad de rotación, para cada uno de los dos mecanismos mencionados a partir de la comparación de datos obtenidos para meniscos de diferentes alturas y sobre electrodos convencionales. * Simular la respuesta electroquímica introduciendo los términos de corrección adecuados para tener en cuenta las variaciones en las condiciones hidrodinámicas que introduce la modificación de la geometría del sistema. * Establecer la metodología apropiada para el tratamiento de los datos experimentales a fin de posibilitar la obtención de los parámetros cinéticos de las reacciones. El plan de trabajo que se propone permitirá profundizar la caracterización del comportamiento hidrodinámico del disco-menisco rotante, incrementando las posibilidades de la utilización de esta técnica que es sumamente adecuada para estudios sobre electrodos monocristalinos, siendo estos últimos la clave para dilucidar la influencia que la estructura superficial del electrodo tiene sobre la cinética y los mecanismos de reacciones de transferencia de carga de interés práctico, como el desprendimiento de hidrógeno y la reducción de oxígeno. Las ventajas asociadas a la omisión de la vaina de material aislante posibilitan, a su vez, que el uso del DMR pueda extenderse a otros tipos de sistemas en los cuales el uso de electrodos rotantes convencionales presenta dificultades.
Resumo:
El conocimiento de las propiedades de los cúmulos estelares ha desempeñado y aún desempeña un papel fundamental en el desarrollo de la Astrofísica. Gran parte de lo que hoy sabemos acerca de la estructura y evolución de la Galaxia, e incluso acerca de la formación, estructura y evolución de las estrellas, proviene de una manera directa o indirecta del estudio de los cúmulos estelares, tanto sus propiedades globales, como las características individuales de sus miembros. Esto explica el interés del que suscribe en determinar y analizar las propiedades astrofísicas más relevantes de los miembros de los cúmulos estelares, como así también, los parámetros integrados de los mismos. En este sentido, el advenimiento de los detectores CCD permite en la actualidad extraer más y mejor información de los cúmulos estudiados. La precisión de la fotometría CCD es significativamente superior a la obtenida a partir de la fotometría fotográfica, tradicionalmente usada para estudios de cúmulos en gran escala. Usando fotometría CCD es posible derivar parámetros fundamentales de cúmulos muy compactos, cuyo estudio sería prácticamente imposible a partir de las técnicas tradicionales. Por su parte, la espectroscopía CCD es fundamental para determinar la abundancia de elementos pesados de cúmulos estelares, particularmente de aquéllos muy débiles ubicados en campos muy poblados de la Galaxia. El proyecto consiste básicamente en la obtención de datos fotométricos y espectroscopio de alta precisión de cúmulos estelares (abiertos y globulares) galácticos y extragalácticos. Dicho datos serán utilizados para: a) determinar parámetros físicos integrados de cúmulos abiertos y globulares, y propiedades individuales fundamentales de gigantes rojas pertenecientes a los mismos; b) estudiar la estructura y evolución química del disco galáctico. c) establecer el límite superior de edad de los cúmulos estelares se la Nube Mayor de Magallanes.
Resumo:
El presente estudio pretende arribar a la construcción de un modelo explicativo del comportamiento político a partir de la contribución que los marcos sociales (norma sociales, normas de ciudadanía, ideología, confianza política) y sociocognitivos (inteligencia afectiva, interés político, eficacia política, conocimiento político, sentimiento de comunidad) mostraron, en términos de relaciones entre las variables, sobre el mismo. Nuestra atención se centra no sólo al comportamiento político de la ciudadanía -que es donde se desarrollaron la mayor parte de los estudios-, sino a las elites de poder constitutivas del sistema político (jueces, legisladores provinciales y representantes de instituciones del gobierno y de organismos no gubernamentales). Asimismo, pretende establecer las diferencias que puedan evidenciarse en torno a la relación de estas variables con el comportamiento político entre los distintos colectivos estudiados en el ámbito de la ciudad de Córdoba. Para ello se realizara una primera etapa de estudio instrumental, con el objeto de analizar las propiedades psicométricas de los instrumentos a utilizar en la operacionalización de las variables. Para ello se tomara una muestra accidental de 250 personas entre 18 y 65 años de edad. Posteriormente, se realizarán dos etapas de estudio ex post facto, con la finalidad de construir los modelos planteados. En la primera de ellas, se trabajará con una muestra accidental de 100 representantes de los grupos de poder estudiados y en la segunda con una muestra probabilística de 500 ciudadanos cordobeses entre 18 y 65 años de edad.
Resumo:
El mayor suministro de agua potable de la Ciudad de Córdoba y el Gran Córdoba proviene del Embalse San Roque. Su cuenca es la segunda región turística más importante de la Argentina y la principal de la provincia. El lago es utilizado como fuente de agua para consumo y recreación y como componente básico para la sustentabilidad económica de toda la región, por lo que resulta fundamental la adecuada administración de la cuenca por parte de la Gestión de Gobierno. En la última década, la presencia permanente de algas y la ocurrencia de eventos extremos de crecimiento han siendo percibidos de manera preocupante por los pobladores de las ciudades aledañas y los visitantes de la región. Recientemente han afectado el tratamiento de potabilidad destinada a la ciudad de Córdoba resultando una distribución de agua de mala calidad con olores y sabores desagradables. Asimismo el problema de algas y macrófitas ocurrido en la fuente natural a pocos días de iniciarse la Semana Santa en marzo de 2010, debió ser contrarrestado mediante la implementación de actividades de saneamiento consistente en la limpieza y extracción mecánica de la biomasa en sitios del río San Antonio y su desembocadura, el área del perilago más poblado. Ante los inminentes síntomas de eutrofización avanzada, se conformó el Grupo de investigación Interdisciplinario e Interinstitucional donde participan el Instituto Nacional del Agua, el grupo de investigación Biodiscos y el Laboratorio Central, División Agua y Efluentes de la Facultad de Ciencias Químicas - UCC; la Compañía de Ingenieros Paracaidistas IV y Batallón de Inteligencia de la Segunda División de Ejército - Ejército Argentino; la Facultad de Biología y el Instituto de Virología Vanella - UNC y la Secretaría de Ambiente de la Provincia de Córdoba, entre otras. El objetivo general es la realización de los estudios integrales del lago San Roque para diagnosticar su estado, con el fin de proponer a la Gestión de Gobierno las medidas de mitigación de los problemas y las correspondientes acciones de prevención y control.
Resumo:
El objetivo de este trabajo es identificar la política óptima (considerando producción, transporte y regulación) para la integración de la industria de gas natural en el Mercosur. Se analizarán factores que promueven o limitan la integración en la región. Utilizando un modelo matemático de flujo de redes, se minimizará el costo total (producción y transporte) para la región en su conjunto, satisfaciendo las restricciones de producción, capacidad de transporte y equilibrio (oferta igual a demanda) en cada nodo. El costo total (CT) de la producción y transporte de gas natural (considerando nodos para cada país en la región) es la función objetivo. El proceso de optimización consiste en identificar el nivel de gas natural producido y transportado que minimiza el costo total del sistema para la región. El modelo es estático, no considerando una optimización dinámica con relación a las reservas remanentes. Restricciones Consideramos cuatro restricciones en operación, a saber: 1. Equilibrio en los nodos: esta ecuación establece el equilibrio entre la oferta y la demanda de gas natural en cada nodo. La oferta incluye la producción local y las importaciones. Por su parte, la demanda incluye el consumo doméstico más las exportaciones. 2. Capacidad de producción en cada cuenca: esta restricción establece que las cantidades producidas en cada cuenca debería ser menor o igual a su capacidad de producción. Ello también permite la existencia de una utilización no plena de la capacidad. La capacidad máxima de producción en cada cuenca está determinada sobre la base de una medida de política para cada país a través de la cual el horizonte de consumo de las reservas probadas está establecido. Dada esta relación, el límite sobre la producción de cada año está fijado. En otras palabras, el nivel de producción no está basado ni en la capacidad instalada de producción ni en los precios, sino en la política de agotamiento decidida sobre las reservas probadas en el año de calibración del modelo. Esto permite diferentes escenarios para el análisis. Para las simulaciones se tomó el ratio de reservas a producción en el año de calibración del modelo. 3. Capacidad de transporte: el gas transportado a través de un gasoducto (los operativos y aquellos que están en plan de construcción), en general, y el gas transportado desde cada cuenca a cada mercado, en particular, debería ser menor o igual a la capacidad del gasoducto. 4. Nivel no negativo de gas natural producido: esto evita la existencia de soluciones inconsistentes no sólo desde un punto de vista económico sino también técnico. Referencias Banco Interamericano de Desarrollo BID (2001). Integración Energética en el Mercosur Ampliado, Washington DC. Beato, Paulina and Juan Benavides (2004). Gas Market Integration in the Southern Cone. Inter-American Development Bank. Washington, D.C. Conrad, Jon M. (1999). Resource Economics. Cambridge University Press. United States of America. Dasgupta, P.S. and G. M. Heal (1979). Economic Theory and Exhaustible Resources. Cambridge University Press. United States of America. Dos Santos, Edmilson M, Victorio E. Oxilia Dávalos, and Murilo T. Werneck Fagá (2006). “Natural Gas Integration in Latin America: Forward or Backwards?”. Revue de l’Energie, Nº 571, mai-juin. Fagundes de Almeida, E.L. y Trebat, N. (2004). “Drivers and barriers to cross-border gas trade in the southern cone”. Oil, Gas & Energy Law Intelligence, Vol. 2, Nº 3, Julio. Givogri, Pablo (2007). “Condiciones de abastecimiento y precios de la industria del gas de Argentina en los próximos años”. Fundación Mediterránea. Julio. Córdoba, Argentina. Kozulj, Roberto (2004). “La industria del gas natural en América del Sur: situación y posibilidades de la integración de los mercados”. Serie Recursos Naturales e Infraestructura. Nº 77. CEPAL. Santiago de Chile, Chile. Diciembre.
Resumo:
Entre los factores que contribuyen a predecir el rendimiento académico se pueden destacar aquellos que reflejan capacidades cognitivas (inteligencia, por ejemplo), y aquellas diferencias individuales consideradas como no-cognitivas (rasgos de personalidad, por ejemplo). En los últimos años, también se considera al Conocimiento General (CG) como un criterio para el éxito académico (ver Ackerman, 1997), ya que se ha evidenciado que el conocimiento previo ayuda en la adquisición de nuevo conocimiento (Hambrick & Engle, 2001). Uno de los objetivos de la psicología educacional consiste en identificar las principales variables que explican el rendimiento académico, como también proponer modelos teóricos que expliquen las relaciones existentes entre estas variables. El modelo teórico PPIK (Inteligencia-como-Proceso, Personalidad, Intereses e Inteligencia-como-Conocimiento) propuesto por Ackerman (1996) propone que el conocimiento y las destrezas adquiridas en un dominio en particular son el resultado de la dedicación de recursos cognitivos que una persona realiza durante un prolongado período de tiempo. Este modelo propone que los rasgos de personalidad, intereses individuales/vocacionales y aspectos motivacionales están integrados como rasgos complejos que determinan la dirección y la intensidad de la dedicación de recursos cognitivos sobre el aprendizaje que realiza una persona (Ackerman, 2003). En nuestro medio (Córdoba, Argentina), un grupo de investigadores ha desarrollado una serie de recursos técnicos necesarios para la evaluación de algunos de los constructos propuesto por este modelo. Sin embargo, por el momento no contamos con una medida de Conocimiento General. Por lo tanto, en el presente proyecto se propone la construcción de un instrumento para medir Conocimiento General (CG), indispensable para poder contar con una herramienta que permita establecer parámetros sobre el nivel de conocimiento de la población universitaria y para en próximos trabajos poner a prueba los postulados de la teoría PPIK (Ackerman, 1996). Between the factors that contribute to predict the academic achievement, may be featured those who reflect cognitive capacities (i.g. intelligence) and those who reflect individual differences that are considered like non-cognitive (i.g. personality traits). In the last years, also the General Knowledge has been considered like a criterion for the academic successfully (see Ackerman, 1997), since it has been shown that the previous knowledge helps in the acquisition of the new knowledge (Hambrick & Engle, 2001). An interesting theoretical model that has proposed an explanation for the academic achievement, is the PPIK (intelligence like a process, interests and inteligence like knowledge) proposed by Ackerman (1996), who argues that knowledge and the acquired skills in a particular domain are the result of the dedication of cognitive resources that a person perform during a long period of time. This model proposes that personality traits, individuals interests and motivational aspects are integrated as complex traits that determine the direction and the intensity of the dedication of cognitive resources on the learning that a person make (Ackerman, 2003). In our context, (Córdoba, Argentina), a group of researcher has developed a series of necessary technical resoures for the assesment of some of the theoretical constructs proposed by this model. However, by the moment, we do not have an instrument for evaluate the General Knowledge. Therefore, this project aims the construction of an instrument to asess General Knowledge, essential to set parameters on the knowledge level of the university population and for in next works test the PPIK theory postulates.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
Es destaca la presència de tres espècies bioinvasores, tals com la gambúsia(Gambusiaaffinis), la canya (Arundodonax) i el cranc vermell americà (Procambarusclarkii). S’ha detectat que la qualitat de l’aigua ha disminuït en alguns paràmetres, especialment en l’Estanyet del Safareig. En els tres estanyets els sòlids dissolts totalsa TSD) estan al voltant del límit màxim recomanat per la EPA (Agència de Protecció Ambiental d’Estats Units). S’ha observat que la Cladophora, indicadora de concentracions elevades de nitrogen a l’aigua, és un cloròfit molt abundant. S’han identificat dos hàbitats d’interès comunitari no prioritari, segons la Directiva Hàbitats: les closes i les freixenedes termòfiles de Fraxinusangustifolia. En funció dels resultats obtinguts s’han elaborat les propostes de gestió i conservació per aquest espai.
Resumo:
Arran d’una part de la transposició a l’Estat espanyol de la Directiva 2002/91/CE sobre Eficiència Energètica d’Edificis mitjançant el Real Decret 47/2007, pel que s’aprova el Procediment bàsic per la certificació d’eficiència energètica d’edificis de nova construcció, la certificació energètica esdevé obligatòria per edificació nova, i es dóna de termini fins a 2009 per a l’obligatorietat en edificació existent. És en aquest buit de l’edificació existent on es presenta l’objectiu de l’estudi, que és precisament augmentar el coneixement i canvi d’actitud dels agents de l’habitatge social sobre solucions de la rehabilitació des d’una perspectiva de sostenibilitat ambiental, en el context de la certificació energètica per obra nova. Després d’un intens treball de recerca de dades, s’aplicà en un cas pràctic d’habitatge social la nova directiva sobre certificació energètica de l’edificació amb les eines oficials existents. S’aconseguí fer una avaluació energètica d’un habitatge com a eina de gestió per la definició d’estratègies, i solucions ambientals per aconseguir així una major eficiència dels mateixos. D’aquesta manera, s’ha demostrat el valor afegit de la certificació energètica, i les dades obtingudes de les diferents certificacions realitzades podran ajudar a desenvolupar eines i estratègies integrades d’aplicació de millores energètiques a nivell del parc d’edificis existent.
Resumo:
En el marco del proyecto “La ciutat romana de Cosa: arqueologia d’un enclau comercial mediterrani” , autorizado y apoyado por la Soprintendenza Archeologica por la Toscana, entre los dias 4 y 22 de septiembre de 2006 se ha realizado la segunda campaña de intervenciones arqueológicas en la ciudad romana de Cosa (Ansedonia, prov. Grosseto, Itàlia), colonia latina fundada en el 273 aC a unos 120 km. al norte de Roma. De acuerdo a los resultados obtenidos en la campanya del 2005 (localización/verificación de los límites precisos de la ínsula O-P/4-5 mediante la aplicación de técnicas de prospección geofísica completadas con la limpieza, registro y documentación arqueológica de las estructuras localizadas ) los trabajos del 2006 se han orientado hacia la identificación de la organización interna de la dicha ínsula tomando como referente el criptopórtico situado en el extremo N.E., el cual parece constituir el límite de una estructura singular (privada o pública ) estratégicamente ubicada en relación al fórum i a la Via Sacra. El trabajo de campo ha consistido en un intenso decapage con la finalidad de delimitar unidades de habitación complejas funcionalmente definidas y así la articulación existente entre ellas; en este sentido se ha podido documentar evidencias del espacio porticado superpuesto al criptopórtico así como, paralelamente a la calle 5 y en dirección a la Via Sacra, parte de habitaciones algunas de las cuales conservaban restos del pavimiento original, en un caso de mosaico. Paralelamente, se ha realizado el análisis en laboratorio de los materiales recuperados los cuales, aún procediendo de nivel superficial, empiezan a proporcionar datos sobre los diferentes momentos de ocupación de la zona, básicamente tardorepublicanos y augustales.
Resumo:
Aquest és un projecte sobre la indexació de continguts televisius; és a dir, el procés d’etiquetatge de programes televisius per facilitar cerques segons diferents paràmetres. El món de la televisió està immers en un procés d'evolució i canvis gràcies a l'entrada de la televisió digital. Aquesta nova forma d'entendre la televisió obrirà un gran ventall de possibilitats i permetrà la interacció entre usuaris i emissora. El primer pas de la gestió de continguts consisteix en la indexació dels programes segons el contingut. Aquest és el nostre objectiu. Indexar els continguts televisius de manera automàtica mitjançant la intelligència artificial.