994 resultados para Memoria transaccional software
Resumo:
Desarrollar y evaluar los nuevos materiales para la enseñanza interdisciplinar que incluye contenidos tradicionales de geografía humana y económica, así como de estadística. Incorporar los últimos avances de la investigación sobre los efectos en el aprendizaje de los nuevos medios basados en las tecnologías de la información y la comunicación. Plantear un ejemplo de desarrollo curricular de un conjunto de contenidos que no afectan a un tema único. Desarrollar actividades de enseñanza-aprendizaje centradas, en primer lugar, en la adquisicion de conceptos, principios y procedimientos climáticos; en segundo lugar, centradas en la toma de decisiones mediante un modelo de simulación probabilístico, conducentes a la adquisición de destrezas y habilidades intelectuales adecuadas al desarrollo cognitivo de alumnos de 14-16 años, aprovechando las ventajas que ofrece el ordenador.. Dos etapas, la primera diseña y elabora el programa de ordenador y la segunda se dirige a la evaluación del mismo. El diseño y producción del programa pasa por las siguientes fases: 1) selección, diseño y estructuración de las actividades de enseñanza-aprendizaje; 2) elaboración de la versión preliminar del software y de los materiales escritos complementarios; 3) revisión y adecuación de la versión preliminar; 4) elaboración de la versión definitiva del programa. Para la evaluación se diseña un modelo de software educativo y se pide a profesores en formación y en activo de enseñanza secundaria, de las áreas de geografía e historia y matemáticas, que evalúen el programa de su materia.. Programa de ordenador clima.. 1. El profesorado ha evaluado como muy útil el programa. 2. Cubre adecuadamente los objetivos de motivación, elicitación y reestructuración de ideas previas de los alumnos, y propone una secuencia correcta de actividades para el aprendizaje de conceptos, principios y procedimientos, tanto climáticos como probabilísticos. 3. Dentro de las categorías de software educativo, es clasificado a la vez, como programa tutorial, de simulación, de juego y de resolución de problemas, es decir, es adaptable a distintos tipos de profesores y situaciones didácticas. 4. Se valoran muy positivamente algunas características técnicas del programa: su interactividad, la claridad de las explicaciones y ayudas, la animación, los gráficos, el color y la utilización de hipertexto. 5. Se señalan varios defectos o dificultades técnicas: las elevadas exigencias al ordenador en cuanto a memoria, velocidad de procesamiento y resolución gráfica; la necesidad de utilización correcta por el usuario del entorno Windows. 6. Defectos didácticos: el programa no lleva un registro de nombres y actuaciones de los alumnos..
Resumo:
Resumen basado en el de la publicación
Resumo:
Questo lavoro di tesi tratta il tema delle reti complesse, mostrando i principali modelli di rete complessa quali: il modello Random, il modello Small-World ed il modello Scale-free; si introdurranno alcune metriche usate per descrivere le reti complesse quali la Degree centrality, la Closeness centrality e la Betweenness centrality; si descriveranno i problemi da tenere in considerazione durante la definizione e l’implementazione di algoritmi su grafi; i modelli di calcolo su cui progettare gli algoritmi per risolvere i problemi su grafi; un’analisi prestazionale degli algoritmi proposti per calcolare i valori di Beweenness centrality su grafi di medio-grandi dimensioni. Parte di questo lavoro di tesi è consistito nello sviluppo di LANA, LArge-scale Network Analyzer, un software che permette il calcolo e l’analisi di varie metriche di centralità su grafo.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
En el presente trabajo se caracterizará al Software Libre, sus ventajas técnicas, morales y pedagógicas por sobre sus contrapartes privativas. Es mi convicción que la Universidad pública debe enseñar métodos de trabajo y no a utilizar una herramienta en particular; principalmente porque los programas de mayor difusión en el ámbito académico no permiten su distribución ni el estudio de su funcionamiento interno. Se presentarán los principales reemplazos a MATLAB y Maple (SAGE, Python+NumPy y Maxima) y se dará una introducción a estos con ejemplos reales.
Resumo:
En esta presentación compartiremos la experiencia de creación, desarrollo e implementación de nuestra comunidad virtual de práctica Docentes en línea (http://docentesenlinea.fahce.unlp.edu.ar/), nacida como proyecto de extensión de la Facultad de Humanidades y Ciencias de la Educación (FaHCE) de la Universidad Nacional de La Plata (UNLP) en diciembre de 2012. Comenzaremos mencionando brevemente los fundamentos teóricos sobre los que se basa nuestro trabajo, ;presentando las nociones de ecosistema digital, comunidad de práctica (CoP), ;conectivismo, aprendizaje colaborativo, distancia transaccional, educación no formal y tecnologías del empoderamiento y la participación (TEP). Si bien estos conceptos provienen de diferentes teorías, autores y épocas, a nuestro entender, pueden comprenderse como un todo coherente e interrelacionado. Luego procederemos a describir los múltiples espacios virtuales en los que desarrollamos nuestra propuesta, que es enteramente en línea. Como se verá, estos espacios son muy diversos y abarcan, para solo mencionar algunos de ellos, diferentes redes sociales, como Facebook, Twitter y LinkedIn, entre otras, así como un sitio en el entorno Moodle, un blog, un sitio institucional desarrollado en software de acceso abierto, y un repositorio de herramientas albergado en un sitio que permite generar murales digitales interactivos. Mencionaremos, además, la función planteada inicialmente para cada uno de estos espacios y los cambios que hemos ido introduciendo al confrontar nuestras ideas iniciales con la realidad de aplicación que fue adquiriendo cada uno de ellos con el paso del tiempo. Por ejemplo, haremos referencia al cambio de rumbo que tuvo el espacio en el entorno Moodle, al migrar la interacción por medio de debates para el que estaba originalmente concebido a las redes sociales. Nos referiremos, además, a la acción que han tenido los miembros de la CoP, al haber ido moldeándola con sus elecciones y preferencias de participación. Por último, esbozaremos algunas reflexiones finales sobre lo realizado hasta la fecha. En ellas mencionaremos la importancia de la CoP Docentes en línea como ámbito para la reflexión de los docentes, como espacio que puede aprovecharse, y ese es nuestro anhelo, para la formación profesional permanente, logrando sus miembros autonomía, pero, a la vez, aprendiendo en comunidad, al compartir saberes, inquietudes y problemáticas de variada índole con otros colegas de bagajes culturales diversos y provenientes de distintos lugares del mundo. También mencionaremos el que quizás constituya el principal desafío que debemos afrontar al llevar adelante esta tarea cotidianamente: lograr que cada vez más miembros se animen a participar activamente en nuestra comunidad, dejando de lado los posibles temores y prejuicios o el desconocimiento de lo que significa el trabajo colaborativo en una CoP virtual, que pueden atentar contra el intercambio y la contribución de saberes que se da al enseñar y aprender en este tipo de comunidad
Resumo:
En el presente trabajo se exponen las condiciones de la creación de la única unidad de información para dos Unidades Académicas dentro de la UNLP -la Biblioteca Conjunta de Facultad de Ciencias Agrarias y Forestales y de la Facultad de Ciencias Veterinarias- y cómo esta situación influyó directamente en la conformación del OPAC de la Biblioteca Conjunta en su reconversión al sistema de gestión de bibliotecas Koha-UNLP. Dado que Bienes Patrimoniales requiere que se mantenga el inventario de cadabiblioteca origen, se tuvo que implementar una codificación para asignar losinventarios. Ya que Koha-UNLP genera los inventarios en forma automática, en nuestrocaso decidimos completar manualmente el campo "código de barras", para así poder agregar al número de inventario y la codificación correspondiente a cada Facultad. Dicha codificación es la que dio el CAICYT, DAG (Agrarias/Forestales), DVE (Veterinaria). De esta manera se diferencian los fondos bibliográficos de las distintas facultades, y a su vez el fondo completo lleva la identificación dada por nosotros de Biblioteca Conjunta (DAV) para facilitar la circulación de los libros. Al quedar identificada la Biblioteca Conjunta con la sigla DAV, se pueden realizar movimientos en las colecciones (DAG, DVE) simultáneamente, sin importar a qué Unidad Académica pertenezcan los usuarios, y sin tener que entrar y salir del sistema KOHAUNLP para realizar las transacciones del Área de Circulación.
Resumo:
El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados
Resumo:
Se aborda la construcción de repositorios institucionales open source con Software Greenstone. Se realiza un recorrido teórico y otro modélico desarrollando en él una aplicación práctica. El primer recorrido, que constituye el marco teórico, comprende una descripción, de: la filosofía open access (acceso abierto) y open source (código abierto) para la creación de repositorios institucionales. También abarca en líneas generales las temáticas relacionadas al protocolo OAI, el marco legal en lo que hace a la propiedad intelectual, las licencias y una aproximación a los metadatos. En el mismo recorrido se abordan aspectos teóricos de los repositorios institucionales: acepciones, beneficios, tipos, componentes intervinientes, herramientas open source para la creación de repositorios, descripción de las herramientas y finalmente, la descripción ampliada del Software Greenstone; elegido para el desarrollo modélico del repositorio institucional colocado en un demostrativo digital. El segundo recorrido, correspondiente al desarrollo modélico, incluye por un lado el modelo en sí del repositorio con el Software Greenstone; detallándose aquí uno a uno los componentes que lo conforman. Es el insumo teórico-práctico para el diseño -paso a paso- del repositorio institucional. Por otro lado, se incluye el resultado de la modelización, es decir el repositorio creado, el cual es exportado en entorno web a un soporte digital para su visibilización. El diseño del repositorio, paso a paso, constituye el núcleo sustantivo de aportes de este trabajo de tesina