54 resultados para ARQUITECTURA DE SOFTWARE
em Archivo Digital para la Docencia y la Investigación - Repositorio Institucional de la Universidad del País Vasco
Resumo:
[ES]Para la elaboración del presente proyecto, primeramente se explicara los requerimientos técnicos y el origen del microprocesador a utilizar para poder situar y centrar el tema del trabajo. Una vez acotado y delimitado el tema objeto de estudio, se planteara una arquitectura de software sobre la posibilidad de generar unas “pseudolibrerias” de mayor nivel de programación que el ensamblador. Posteriormente, se verificara la posible viabilidad o no de tal planteamiento, exponiendo sus resultados y las consideraciones oportunas a las que nos ha llevado su estudio. Para ello se analizara en una primera instancia el microprocesador a utilizar, que será el PIC16F887, centrándonos en el debido al amplio manejo y conocimiento que poseemos sobre este microprocesador. El objeto de este escrito será presentar una oferta económica relativa al desarrollo e instalación de dichos microprocesadores para la mejora en el ámbito industrial. Finalmente, realizaremos un estudio sobre la implementación de este tipo de arquitectura software en diferentes microprocesadores de mayores prestaciones, estudiando si la infraestructura será eficiente, funcional y económica.
Resumo:
El proyecto de fin de carrera “Implantar un Sistema de Gestión Integral en Software libre” se ha desarrollado en la empresa Avanzosc con sede en Azkoitia. Una peculiaridad del proyecto es que a su vez se ha utilizado como cliente otra empresa, q2K, Soluciones Informáticas en Gestión Estratégica. El objetivo del proyecto es implantar en q2K un sistema de planificación de recursos empresariales (ERP, Enterprise Resource Planning), esto le permite reunir en una única aplicación todos los procesos de negocio de la empresa. La implantación de un ERP requiere de una importante inversión ya que el coste de la licencia de un sistema ERP propietario es elevado. Una interesante alternativa para evitar este desembolso es optar por un de ERP de software libre con todas las ventajas de configuración y personalización. En nuestro caso se ha adoptado OpenERP que es un software integral, modular y adaptable, adecuado para pequeñas y medianas empresas. El desarrollo del proyecto ha estado supervisado por el equipo de trabajo de Avanzosc, empresa líder en España en implantación de OpenErp, siguiendo la metodología de trabajo propia de esta empresa.
Resumo:
[ES]El objetivo de este trabajo es el diseño e implementación de un complemento adicional a OpenFlow que permita la ejecución de los mensajes en el switch dentro de un espacio de tiempo concreto que previamente ha sido definido. El primer paso será la definición de objetivos y especificaciones del trabajo, para posteriormente realizar el diseño de un escenario mediante el análisis de posibles alternativas, y que permitirá la consecución de dichos objetivos. A continuación se añadirá el código necesario para que los equipos sean capaces de realizar el envío y ejecución de los mensajes en el tiempo programado y se finalizará realizando simulaciones y pruebas tanto del funcionamiento como del formato que utilizan los mensajes intercambiados entre el controlador y los switches que maneja, con el objetivo de verificar la viabilidad del módulo desarrollado.
Resumo:
168 p.
Resumo:
Trabajo realizado en la empresa CAF Power&Automation
Resumo:
Trabajo realizado en la empresa ULMA Embedded Solutions
Resumo:
[ES]En esta ponencia se traza un cuadro general sobre el concepto actual de la arqueología de la arquitectura en España, y se plantea una serie de propuestas y de elementos de reflexión que la disciplina tendrá que abordar en un próximo futuro. Para ello se analizarán las fases formativas de la disciplina como resultado de la adquisición en los años 80 de un bagaje conceptual y metodológico aprehendido de la tradición italiana, y como se ha aplicado a la situación de la investigación y la gestión del patrimonio edificado en los 90. Concretamente se prestará una atención específica a los marcos institucionales, académicos y administrativos que han condicionado hasta el momento su desarrollo. Por último, se prestará una atención particular al uso que se realiza de la información producida por las investigaciones arqueológicas en las intervenciones de rehabilitación y restauración del patrimonio edificado, analizando críticamente algunos ejemplos significativos.
Resumo:
[ES]Propuesta que se encuadra en el estudio de una serie de edificaciones anteriores al románico en la Diócesis de Vitoria, supuestamente inexistentes hasta el momento, en el marco del análisis de las técnicas constructivas medievales del territorio. Para ello se debía contar con una muestra de edificios bien fechados,algo imposible hasta la fecha dado que la historiografía negaba la existencia de iglesias prerrománicas en Álava. Por esto era necesario conseguir una muestra sobre la cual trabajar, para lo que se recurrió a un proceso de selección de edificios en los que se conservaran evidencias anteriores al románico, diseñándose el modelo de prospección que presentamos.
Resumo:
386 p. : il. col.
Resumo:
Este informe recoge las guías del docente y del estudiante para la puesta en marcha, seguimiento continuo y evaluación de la asignatura Ingeniería del Software del segundo curso del Grado en Ingeniería Informática. Todo ello basado en metodologías activas, concretamente la metodología de Aprendizaje Basado en Proyectos (ABP, o PBL de Project Based Learning). El trabajo publicado en este informe es el resultado obtenido por los autores dentro del programa de formación del profesorado en metodologías activas (ERAGIN), auspiciado por el Vicerrectorado de Calidad e Innovación Docente de la Universidad del País Vasco (UPV/EHU).
Resumo:
Background Protein inference from peptide identifications in shotgun proteomics must deal with ambiguities that arise due to the presence of peptides shared between different proteins, which is common in higher eukaryotes. Recently data independent acquisition (DIA) approaches have emerged as an alternative to the traditional data dependent acquisition (DDA) in shotgun proteomics experiments. MSE is the term used to name one of the DIA approaches used in QTOF instruments. MSE data require specialized software to process acquired spectra and to perform peptide and protein identifications. However the software available at the moment does not group the identified proteins in a transparent way by taking into account peptide evidence categories. Furthermore the inspection, comparison and report of the obtained results require tedious manual intervention. Here we report a software tool to address these limitations for MSE data. Results In this paper we present PAnalyzer, a software tool focused on the protein inference process of shotgun proteomics. Our approach considers all the identified proteins and groups them when necessary indicating their confidence using different evidence categories. PAnalyzer can read protein identification files in the XML output format of the ProteinLynx Global Server (PLGS) software provided by Waters Corporation for their MSE data, and also in the mzIdentML format recently standardized by HUPO-PSI. Multiple files can also be read simultaneously and are considered as technical replicates. Results are saved to CSV, HTML and mzIdentML (in the case of a single mzIdentML input file) files. An MSE analysis of a real sample is presented to compare the results of PAnalyzer and ProteinLynx Global Server. Conclusions We present a software tool to deal with the ambiguities that arise in the protein inference process. Key contributions are support for MSE data analysis by ProteinLynx Global Server and technical replicates integration. PAnalyzer is an easy to use multiplatform and free software tool.
Resumo:
[ES]El fuerte crecimiento económico que vivirá el estado español desde finales de la década de los cincuenta hasta los últimos años del régimen franquista se producirá en el conocido como periodo del Desarrollismo. Un periodo que dará fin al sistema autárquico impuesto tras el fin de la Guerra Civil y que provocará, entre otros efectos, un auténtico boom urbanístico en las zonas con mayor nivel de desarrollo, entre ellas, Gipuzkoa.Tras la introducción, el capítulo segundo de la Tesis se centra en el análisis del contexto económico, urbanístico, normativo, constructivo y tecnológico de esos años y en la evolución que experimentarán las tipologías residenciales y constructivas en seis de los municipios con mayor crecimiento demográfico de la provincia.Los distintos agentes intervinientes (Administración, promotores, constructores, arquitectos, aparejadores, fabricantes de materiales, gremios, etc) se adecuarán a un determinado estilo y forma de trabajar que sentará las bases de muchos de los hábitos, procedimientos e, incluso, técnicas constructivas que se utilizan hoy en día. El papel de cada uno de los actores participantes en el proceso edificatorio, el contenido documental del proyecto arquitectónico así como el conjunto de trámites administrativos que van a ser necesarios para poder llegar a construir un edificio residencial de vivienda colectiva se analizan en el capítulo tercero del documento. En los capítulos cuarto y quinto, se estudian los materiales y los elementos constructivos utilizados en la conformación de la cimentación, la estructura, la fachada, la cubierta y los sistemas de suministro y evacuación de aguas del edificio desarrollista. Asimismo, se realiza una primera valoración del estado en el que han llegado hasta nuestros días con resultados realmente preocupantes, incluso para la seguridad de las personas, en el caso de la fachada y de determinados elementos estructurales.Además del importante número de edificios analizados, los testimonios aportados por los diecisiete personajes (diez de ellos arquitectos) a los que se ha tenido la oportunidad de entrevistar y que tomaron parte en las distintas fases del proceso constructivo durante esos años han resultado determinantes en el trabajo de investigación y cuentan, por si mismos, con un valor excepcional como documento histórico.De las conclusiones finales se pueden anticipar las siguientes: gran parte de los elementos constructivos han llegado a una edad crítica y sus lesiones, relativamente leves y asumibles hasta hace bien poco, comienzan a agravarse de forma exponencial; el ciclo de vida de la fachada tradicional debe darse por culminado y desterrarse definitivamente, como solución, de la construcción actual y futura; debido a sus carencias y lesiones, el esfuerzo económico que habrá que asumir en los próximos años para la adecuación de los edificios construidos durante el periodo desarrollista a las nuevas exigencias en materia de sostenibilidad, eficiencia energética y accesibilidad va a ser muy alto; se antoja necesario realizar una tipificación y catalogación de los edificios residenciales de la época; y, para terminar, se confía en que la Tesis, planteada como una primera aproximación global y un estudio ¿marco¿ del proceder constructivo de una determinada época, contribuya a abrir nuevas vías para futuros trabajos y proyectos de investigación.
Resumo:
El Cine Digital es aquel que utiliza la tecnología digital para grabar, distribuir y proyectar películas. En los años 90, el cine comenzó un proceso de transición, del soporte fílmico a la tecnología digital. Pero el salto definitivo se dio con las grandes superproducciones de principios del 2000. Con este cambio de era y debido a la rápida difusión del digital y la proliferación de formatos se creo el DCI (Digital Cinema Initiative), para cambiar el modo en que las personas consumen cine. Trabajando junto con los miembros del comité SMPTE (Organización americana encargada de crear los estándares de la industria audiovisual formada por ingenieros, técnicos y fabricantes) publicó un sistema de especificaciones que han adoptado las mayores productoras estadounidenses. Mediante este acuerdo, aseguraban la calidad técnica de las producciones, la compatibilidad entre sistemas y como no, su hegemonía particular. Entre las especificaciones técnicas que suscribieron que son la base actual del DCI figuran la resolución de fotograma, el espacio de color, la compresión de imagen, la encriptación y el método de empaquetado de archivos. Y hoy en día son un estándar en la masterización, distribución y en la proyección final en las salas de cine. Una de las grandes esperanzas que hay puestas en la tecnología digital es la democratización en el mundo del cine y la supuesta abolición de las barreras económicas a la hora de realizar películas, dado lo barato que puede resultar la grabación digital y la posibilidad de pasar el material a video y editarlo en un ordenador domestico. Independientemente de los sistemas de edición que se utilicen, el formato de archivo o incluso el códec usado, los servidores de cine digital solo aceptan un tipo de archivo llamado DCP (Digital Cinema Package). Hay que aclarar que el DCP es abierto, documentado y que esta basado en los estándares SMPTE. Por lo tanto, existen en el mercado actual herramientas de software libre que permiten crear un DCP válido según las normas del DCI y compatible con los actuales servidores de cine digital. El propósito de este proyecto principalmente es documentar desde un punto de vista técnico la creación de un archivo DCP y analizar las diferentes herramientas existentes en el mercado para poder realizarlo: tanto las de uso comercial, como las de software libre. Como base se partirá de las aplicaciones creadas por la empresa alemana Fraunhofer (EasyDCP Creator, Player) - es el software utilizado en el estudio REC - y de otras herramientas más rudimentarias y escritas en C++ como (asdcplib) de Cinecert.
Resumo:
Egun sare informatikoak ezinbesteko tresna bilakatu dira eguneroko eginkizun askotarako. Horren ondorioz, mota guztietako informazio mordoa garraiatzen da sarean barna. Sarearen erabilerak hainbat abantaila ekarri ditu, baina baita arriskuak ere. Sareko informazio horri guztiari etekina atera nahian zenbait informazio lapur eta zibergaizkilek tresnak garatzen dituzte etengabe. Arazo horri aurre egiteko babes mekanismo ugari garatu dituzte segurtasun aditu eta eragileek. Baina era berean, mekanismo horiek gainditzeko erasoak automatizatzeko eta indartzeko gai diren tresnak berriak agertu dira. Azken hauen artean kokatzen dira botnet-ak, gaur egungo mehatxu handienetako bat segurtasun aditu askoren iritziz. Botnetak kontroladore baten edo batzuen agindupean egon daitezkeen makina multzoak dira. Makina horiek, bot edo zombie izenez ezagunak, ezkutuan martxan dagoen software bati esker kontrolatu ohi dira. Jatorrian bot-en mekanismoa atazak automatizatzeko erabiltzen bazen ere, gaur egun ezaugarri hori aprobetxatuz erasoak eta beste motako ekintza ez-zilegi batzuk egiteko erabiltzen dira. Botneten tamaina milaka makinakoa izatera irits daiteke. Horri esker egin ditzaketen erasoen ahalmena handitu egiten da eta, ondorioz, etekin handiagoa ateratzeko aukerak handitzen dira ere. Beste ezaugarri nagusienetako bat malwareren bati esker kontrolpean dauden makinen jabeak ohartu gabe funtzionatzea da. Azken urteotan botneten hazkundea nabarmena izan da eta izugarrizko mehatxua bilakatu dira sarearen funtzionamendurako eta sareko sistemen segurtasunerako. Horrek motibatuta garatu da proiektu hau. Funtsean botnetak zer diren, hauen bilakaera eta nola funtzionatzen duten azaldu nahi da. Segurtasun neurri batzuk ere aztertzen dira. Azkenik, azterketa praktikoa ere lantzen da, Zeus eta Flu izeneko botnetak modu lokalean probatuz.
Resumo:
Within the next few pages, I will try to give a wide description of the project that I have been doing for IK4-Ikerlan. For the last six months, I have been working in developing a socket-based application for Apple devices. These devices work under the iOS operative system, which is programmed in Objective-C, a language similar to C. Although I did not have the chance to develop this application for Apple TV, I was able to create an application for iPhone and another one for iPad. The only difference between both applications was the screen resolution, but we decided to make them separately, as it would be really hard to combine both resolutions, and wallpapers, everything in the same workspace. Finally, it is necessary to add that the main goal was not to create a new application for iOS, but to translate an Android application into iOS. To achieve this, it is required to translate Java code into Objective- C, which is the language used to develop applications for all kinds of Apple devices. Fortunately, there is a tool created by Google, which helped us with this exercise. This tool is called j2ObjC, and it is still being developed.