517 resultados para imperativo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque la norma prescriptiva se erige como contenedora de la variación, puede a su vez generar variación (v. Alvarez González 2006:113): si la conciencia de la existencia de una norma aventaja a su dominio, la inseguridad lingüística del hablante lo orientará a auto-corregirse en la dirección que considere más confiable (los conocimientos previos que le parezcan aplicables, las producciones en algún medio de comunicación, etc.); los hablantes podrán, así, encontrar soluciones diferentes para una misma inseguridad, con lo que las intenciones de ajuste podrán resultar en divergencia. Lo que llevamos dicho se aplica también al tratamiento de las incorporaciones léxicas de otras lenguas, pero la inseguridad en estos casos puede ser doble: el hablante puede dudar de cómo "debe" pronunciar o escribir en el marco de su comunidad de habla palabras de otra lengua, y también de cómo "son" esas palabras en la lengua de la que provienen. Específicamente en el caso de la escritura, nuestras indagaciones en el área dialectal del español bonaerense han puesto de manifiesto un imperativo actitudinal entre los hablantes de mayor nivel educacional, en relación con la preferencia por la conservación de las configuraciones grafémicas de origen para las importaciones léxicas (v. Hipperdinger 2010:71ss.). Dado su acceso privilegiado a los medios gráficos, sus usos son tomados como modélicos también por quienes no explicitan las mismas preferencias, y se encuentra regularmente una escritura de las incorporaciones léxicas (en especial las más o menos recientes, y de lenguas prestigiosas) que intenta reproducir la de origen. En ese intento la hipercorrección no es rara, y de ella nos ocuparemos en esta comunicación. Sobre materiales obtenidos en el sudoeste bonaerense, atenderemos en particular a los recursos formales (entre los que encontramos predominantemente amplificaciones grafémicas) que se ponen en juego en la generación de las variantes hipercorrectas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo se propone a analizar la crítica del filósofo alemán Albrecht Wellmer direccionada sobretodo a Habermas. Alumno de éste y de Adorno en la así llamada Escuela de Frankfurt, Wellmer, en su Etica del discurso (1986), se propone a neutralizar los problemas de la ética kantiana, pero sin abandonar el normativismo moral de pretensión universalista. Para Wellmer, "un principio como el imperativo categórico (kantiano) no puede nunca operar en un espacio vacío". Su foco es el a priori de la aplicación prácticas de las normas, ya que estas dependen de nuestra capacidad de captarlas en determinada situación concreta, una vez que su aplicación puede implicar una flagrante inmoralidad. Las críticas de Wellmer se dirigen al consenso normativo tan caro a Habermas: la generalización universalista oculta el olvido de contextos históricos. Así como la racionalidad de los consensos no puede ser caracterizada formalmente, tampoco la racionalidad y la verdad de los consensos tienen que necesariamente coincidir: "así como no podemos inferir de la falsedad de un consenso la falta de racionalidad del mismo, tampoco podemos inferir la verdad de los consensos de su racionalidad". Racionalidad y verdad sólo coinciden desde la perspectiva interna de los implicados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El actual procesamiento de la información produjo cambios revolucionarios a nivel mundial creando lugares virtuales que borran las fronteras y las distancias operando con simultaneidad en la gran aldea mundial con incidencias en todos los aspectos de la vida humana. Las variables de comercialización que manejan las empresas sufrieron transformaciones irreversibles torneando e incluso creando la demanda de mercado mediante la oferta impuesta 'compré ya', 'no lo deje pasar', 'no se lo pierda' o 'no le puede faltar'-. En este orden la oferta ya no es una convocatoria sino un empuje al consumo al exhibir los objetos en lugares de elevada consideración y a la vez muy cerca de la mano para que nada falte. Sin embargo la multiplicidad de alternativas obtura toda elección, el deseo se embota y después del primer perfume todos quedan confundidos, por lo que no se adquiere ninguno o tal vez cualquiera. En el escenario mundializado no hay traza que simbolice la falta sino que sin demora y sin deseo comanda un imperativo de máxima satisfacción. El lugar del ideal ahora está ocupado por la exigencia superyoica al goce. Es la era de extravío de la subjetividad moderna en la que el Ideal del yo declinó de su función organizadora y el Otro al perder su consistencia, ya no lidera. Con esta caída se eleva en la cúspide social el Yo Ideal ostentando la perfección, belleza y eficiencia de los objetos de consumo, ante una masa ávida de satisfacción extrema y atenta a las promesas publicitarias. Todo simula estar al alcance, sin esfuerzos ni connotaciones de tiempo y espacio, por fuera de la castración y más allá del deseo. Apuntando, no ya a una introyección identificatoria simbólica sino, a la corta vía de la incorporación en la ilusión del consumo. El registro simbólico fue impactado por Freud al develar el malestar en la cultura introduciendo la renuncia pulsional como condición de su existencia misma, en tanto toca al lazo social. Con Lacan ya no leemos una renuncia y prohibición de goce sino una exigencia de gozar que traduce el malestar en la cultura en un impasse que se extiende en la civilización, como aporía que produce impotencia. La época incide en el dispositivo analítico en tanto afecta los semblantes y el analista al funcionar desde ese lugar, enfrenta obstáculos ya desde el inicio, con la instauración de la transferencia. Este lazo social inéd. ito es posible porque en tanto no hay relación, hay lazo a partir del discurso. Lo cual indica que se hace preciso pasar por el Otro del discurso para acceder a la sexualidad, a las cosas del amor. El amor de transferencia es el inicio o portal de toda la experiencia analítica que en la actualidad aparece ligado a una marcada renuencia. Desde su posición, el analista mantiene un vacío, no identificado al semblante de a sino funcionando como tal. Hacer de, sin serlo, le permite sostener la transferencia desde el deseo del analista a partir de un discurso. Las coordenadas de la época determinan un modo peculiar de entrada en análisis, dando características muy particulares al establecimiento de la transferencia, lo que exige estar al nivel de la subjetividad contemporánea para dar una respuesta posible en cada caso singular. Objetivos: - Situar el malestar en la cultura como estructural y las características coyunturales de la época. - Investigar sus incidencias en los estilos de vida y en la clínica psicoanalítica. - Trazado de respuestas posibles desde la perspectiva psicoanalítica a la problemática actual. Metodología: Análisis teórico, descriptivo, expositivo y argumental de la temática planteada dirigido hacia la consecución de los objetivos. Resultados: Arribo a interrogaciones y corolarios para la ubicación de las variables en juego: contexto actual, patologías de la época y su incidencia en los estilos de vida o modos de goce. Conclusiones: En un análisis el sujeto surge como efecto de la deriva significante en tanto se apunta a su deseo singular no subsumido en la demanda del Otro y liberado de un sometimiento productor

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La identificación de exponentes funcionales de formas personales (pretérito perfecto, condicional simple e imperativo) y no personales (infinitivo, gerundio y participio) del verbo en muestras de lengua escrita del español de la región NEA. En esta propuesta tomamos en consideración formas verbales personales y no personales de un corpus formado por muestras de lengua escrita de la comunidad de habla de Resistencia, obtenido en sus medios de comunicación. Observamos este trabajo es una de las acciones de proyectos de investigación, finalizados y en curso, de la Universidad Nacional del Nordeste, cuyo propósito final es el de aportar información para la elaboración una gramática comunicativa del español de la región NEA, que sea de utilidad para la enseñanza del español como lengua materna y extranjera. Para la descripción y explicación del modo en que efectivamente usan estas formas los integrantes de la comunidad de habla en cuestión, nos valemos del método comunicativo, puesto que éste ubica tanto a los interlocutores como a la interacción que existe entre ellos, en el centro del análisis. Partimos de una exploración bibliográfica, relacionada con los usos de estas formas verbales en el español en general, para luego -teniendo en cuenta esta información- abordar el análisis de nuestro corpus desde distintas perspectivas, pero fundamentalmente desde el punto de vista pragmático-discursivo. Actualmente, en nuestra comunidad de habla, no se registran antecedentes de análisis de fenómenos de variación lingüística realizados a partir de muestras de usos tanto orales como escritos. Por ello, nos proponemos describir y explicar registros sociales y su adecuación al contexto, con el fin de sistematizar el estado actual de la lengua y los usos en el español de Resistencia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En estos tiempos de crisis se hace imperativo lograr un consumo de recursos públicos lo más racional posible. El transporte público urbano es un sector al que se dedican grandes inversiones y cuya prestación de servicios está fuertemente subvencionada. El incremento de la eficiencia técnica del sector, entendida como la relación entre producción de servicios y consumo de recursos, puede ayudar a conseguir una mejor gestión de los fondos públicos. Un primer paso para que se produzca una mejora es el desarrollo de una metodología de evaluación de la eficiencia técnica de las compañías de transporte público. Existen diferentes métodos para la evaluación técnica de un conjunto de compañías pertenecientes a un sector. Uno de los más utilizados es el método frontera, en el que se encuentra el análisis envolvente de datos (Data Envelopment Analysis, DEA, por sus siglas en inglés). Este método permite establecer una frontera de eficiencia técnica relativa a un determinado grupo de compañías, en función de un número limitado de variables. Las variables deben cuantificar, por un lado, la prestación de servicios de las distintas compañías (outputs), y por el otro, los recursos consumidos en la producción de dichos servicios (inputs). El objetivo de esta tesis es analizar, mediante el uso del método DEA, la eficiencia técnica de los servicios de autobuses urbanos en España. Para ello, se estudia el número de variables más adecuado para conformar los modelos con los que se obtienen las fronteras de eficiencia. En el desarrollo de la metodología se utilizan indicadores de los servicios de autobús urbano de las principales ciudades de las áreas metropolitanas españolas, para el periodo 2004-2009. In times of crisis it is imperative achieve a consumption of public resources as rational as possible. Urban public transport is a sector devoted to large investments and whose services are heavily subsidized. Increase the technical efficiency of the sector, defined as the ratio of service output and resource consumption, can help achieve a better management of public funds. One step to produce an improvement is the development of a methodology for evaluating the technical efficiency of the public transport companies. There are different methods for the technical evaluation of a set of companies within an industry. One of the most widely used methods is the frontier method, in particular the Data Envelopment Analysis (DEA). This method allows the calculation of a technical efficiency frontier on a specific group of companies, based on a limited number of variables. Variables must quantify, on the one hand, the provision of services of different companies (outputs), and on the other hand, the resources consumed in the production of such services (inputs). The objective of this thesis is to analyze, using the DEA method, the technical efficiency of urban bus services in Spain. For this purpose, it is studied the more suitable variables that can be used in the models to obtain the efficiency frontiers. In developing the methodology are used indicators of urban bus services in major cities of the Spanish metropolitan areas for the period 2004-2009.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En estos tiempos de crisis se hace imperativo lograr un consumo de recursos públicos lo más racional posible. El transporte público urbano es un sector al que se dedican grandes inversiones y cuya prestación de servicios está fuertemente subvencionada. El incremento de la eficiencia técnica del sector puede ayudar a conseguir una mejor gestión de los fondos públicos. Un primer paso para que se produzca una mejora es el desarrollo de una metodología de evaluación de la eficiencia del sector. Existen diferentes métodos para la evaluación técnica de un conjunto de compañías pertenecientes a un sector, entre los que se encuentra el análisis envolvente de datos (Data Envelopment Analysis, DEA, por sus siglas en inglés). Este método permite establecer una frontera de eficiencia técnica relativa a un determinado grupo de compañías, en función de un número limitado de variables. Las variables deben cuantificar, por un lado, la prestación de servicios de las distintas compañías, y por el otro, los recursos consumidos en la producción de dichos servicios. En el presente artículo se estudian, mediante el método DEA, las variables más idóneas para la evaluación de la eficiencia técnica de los servicios de autobuses urbanos en España. Asimismo, se analiza el número de variables más adecuado para conformar los modelos con los que se obtienen las fronteras de eficiencia. Para ello, se utilizan indicadores de los servicios de autobús urbano de las principales ciudades de las áreas metropolitanas españolas, para el periodo 2004-2009. Se emplea la base de datos del Observatorio de la Movilidad Metropolitana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dado que es difícil imaginar en el futuro una sociedad moderna donde la energía no juegue un papel fundamental y puesto que numerosos estudios han demostrado que el ritmo actual de consumo de combustibles es insostenible y perjudicial para la vida del planeta, es fundamental concienciar a la humanidad de que un cambio de tendencia no solo es necesario sino que es imperativo. No se trata de erradicar por completo el uso de fuentes de carácter fósil, pues en muchos países es su principal o incluso su única forma de obtener energía, sino de avanzar hacia un equilibrio en la generación, para lo que será vital permitir el desarrollo de energías limpias, aumentar la eficiencia de la tecnología y reducir el consumo. En este contexto se ha decidido construir un rotor eólico de pequeñas dimensiones que servirá como herramienta de estudio para alumnos de ingeniería. Para diseñar la turbina se ha desarrollado un modelo de programación informática que, basado en conceptos aerodinámicos, permite calcular la geometría de las palas en función de unas condiciones iniciales, estimar la potencia del rotor y obtener sus curvas de funcionamiento. Uno de los principales problemas de la tecnología eólica es su alta variabilidad, por ello se ha implementado un sistema de regulación de velocidad; se trata de un mecanismo que actúa sobre la orientación de las palas y permite regular la potencia de un generador eléctrico acoplado al rotor. Los aerogeneradores actuales recurren a este tipo de sistemas para tratar de suavizar los desequilibrios de potencia que puedan producir las ráfagas de viento. Se ha recurrido a un software de diseño asistido por ordenador para dibujar tanto el rotor como el sistema de regulación de velocidad. La mayoría de las piezas del rotor se han fabricado con ayuda de una impresora 3D, otras, las metálicas, se han tallado en aluminio mediante un torno. Aunque el programa informático que realiza los cálculos aerodinámicos devuelve datos teóricos a cerca del comportamiento del rotor, se ha creído necesario probar el molino mediante ensayos de laboratorio a fin de obtener un resultado más realista.Abstract Given that it’s difficult to imagine any modern society in the future where energy does not play a crucial role, and as many studies have shown that the actual rate of fuel consumption is unsustainable and harmful to life on the planet, it is essential to raise mankind’s awareness that a change in the current trend is not only necessary, but is also imperative. It is not a question of completely eradicating the use of fossil fuels, as in many countries they are the main or even the only way of generating energy, but rather working towards a balance in generation. To do so it is vital to encourage the development of clean energies, increase technological efficiency and reduce consumption. In view of this we have decided to build a small scale wind turbine rotor which can be used as a study tool for engineering students. To design the turbine a software programme was developed based on aerodynamic concepts, which allows us to calculate the geometry of the blades depending on certain initial conditions, estimate the power of the turbine, and obtain performance curves. One of the main issues with wind technology is its high variability, and therefore we implemented a speed regulation system consisting of a mechanism that varies the orientation of the blades and thus allows us to regulate the power of an electric generator attached to the turbine. Current wind powered generators use this type of system to try to smooth out spikes in power that may be caused by gusts of wind. We have used CAD software to design both the turbine itself and the speed regulation system. Most of the turbine parts have been manufactured with the aid of a 3D printer, while the other metallic parts have been turned on made a lathe in aluminum. Although the software programme which calculates the aerodynamics provide us theoretical data about the operation of the rotor. We consider it necessary to test the wind turbine in a lab to obtain more accurate results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Siguiendo la orientación seguida por la industria aeronáutica de los Estados Unidos en las últimas décadas muchas industrias paralelas han venido a considerar la Operación y Mantenimiento (O&M) como uno de los aspectos más relevantes a la hora de conseguir alcanzar sus objetivos organizativos. La política a seguir en la fase mantenimiento se reconoce como algo fundamental para conseguir los niveles de eficacia operativa precisos, en particular la disponibilidad. La importancia que toman los costes acumulativos incurridos en el periodo de O&M en el total de los acumulados en el ciclo de vida es un hecho cada vez más reconocido. Este concepto ha sido muy analizado y comentado, y comienzan a surgir y a estar en vigor numerosas regulaciones sobre el tema. El coste del ciclo de vida (LCC) se usa cada vez más como uno de los criterios principales a la hora de diseñar o comprar, y así se requiere a los suministradores que aporten soluciones garantizando un bajo coste a lo largo del ciclo vital y que, a la par, mantengan los niveles de servicio requeridos, por unos atributos medibles como son la disponibilidad o la puntualidad. Esta dualidad supone un verdadero reto para los diseñadores cuando afrontan nuevos desarrollos: diseñar para lograr un elevado nivel de servicio a la par que manteniendo un coste bajo en la totalidad del ciclo de vida del nuevo diseño. Hoy en día es indispensable proceder al diseño de los productos y soluciones de forma que sean confiables, fáciles de parametrizar, de configurar y operar, y que además posean las mejores prestaciones para minimizar los esfuerzos para su mantenimiento, renovaciones y eliminación al fin de su vida útil. La política de mantenimiento, tal como se indica anteriormente, ya no es por tanto la preocupación del último momento, sino algo que se debe definir conjuntamente con el diseño, con la perspectiva integrada del soporte logístico preciso. En numerosas industrias las decisiones que se toman sobre el diseño influencian sobremanera los costes futuros del mantenimiento y, particularmente en estos casos, el análisis integral del coste del ciclo de vida se revela como una poderosa herramienta que habilita la toma de las decisiones críticas. Por desgracia el estado del arte de los análisis LCC en el campo ferroviario es casi nulo en comparación con la industria aeronáutica de defensa, o incluso con la tecnología aplicada a la construcción de carreteras. Un enfoque profesional sobre la optimización de los costes y la disponibilidad del sistema ferroviario global es algo inexistente hoy día. Un análisis sistemático de los costes e impactos sobre la disponibilidad a largo plazo es excepcional en las fases de diseño, incluso para los más sencillos componentes de señalización. Más aún, en el mercado de señalización ferroviaria el mantenimiento es el gran paradigma. Las líneas deben mantenerse en servicio comercial bajo cualquier circunstancia, llevando al mínimo cualquier perturbación y por supuesto preservando la seguridad que la sociedad demanda a los sistemas de transporte públicos de masas. Es por ello que la tendencia cada vez mayor es la de comparar, en el momento de la toma de decisión sobre la inversión, las distintas alternativas posibles para elegir la que garantice el menor coste esperable a lo largo del ciclo de vida exigible. El sector ferroviario, como industria que requiere elevadas inversiones de capital en soluciones de larga permanencia, requiere un enfoque que considere el coste del ciclo de vida. Para la infraestructura ferroviaria y la propia vía el ciclo de vida considerado tradicionalmente para la inversión inicial incluyendo el mantenimiento y algunas renovaciones parciales es de 75 a 100 años, para el material rodante son 30 a 35 años con una renovación significativa hacia la mitad del periodo y para los sistemas de señalización se suelen adoptar entre 25 y 30 años. Dados estos elevados plazos el coste debe ser evaluado para cada uno de los elementos constitutivos, considerando no solo los costes de adquisición, sino también a los que conducen las distintas alternativas de diseño y estrategias de mantenimiento, de forma que se minimicen los costes totales acumulados a lo largo del plazo vital sin perder de vista preservar la función deseada, la explotación comercial segura. Concebir las líneas y su mantenimiento bajo el prisma del concepto del coste del ciclo de vida LCC está revelándose como algo imperativo ya que garantiza que las decisiones sobre inversiones/explotación/mantenimiento sean las más efectivas en términos de coste para la sociedad. Pero por desgracia es muy raro encontrar en el sector ferroviario análisis LCC debidamente documentados. Todos los tecnólogos prefieren aportar argumentos de ventas, bonitas transparencias y folletos, entre ellos algunos detalles de LCC o reflexiones dialécticas al respecto, más que permitir obtener clara y francamente sus costes de adquisición de productos incluyendo los de ingeniería e instalación. Igual o similar opacidad hay al respecto de los costes de su mantenimiento (considerando los repuestos y las expectativas de evolución o roadmap del producto). A pesar de reconocerse el hecho de que las decisiones relativas al diseño y a las estrategias de mantenimiento deben apoyarse en análisis sobre los costes y la efectividad asociada debidamente evaluada, en la mayor parte de las veces la carencia de datos imposibilita la realización de estos estudios y se toman las decisiones por proximidad a otros casos similares o guiados por el consejo de una parte sesgada del mercado. Esta tesis demuestra, partiendo de la aplicación de la parte 3.3 de la norma internacional UNE-EN 60300:2004 “Cálculo del Coste del Ciclo de Vida”, que el sistema de señalización que se debe considerar a la hora de definir una nueva línea de Metro típica ha de ser la tecnología de control de tren basada en las telecomunicaciones (CBTC) aplicada en su modo de operación sin conductor (UTO), puesto que su coste de ciclo de vida (LCC) resulta ser sensiblemente inferior al del sistema tradicional de protección y operación automática de tren (ATP/ATO) más avanzado que puede ser usado como alternativa tecnológica, el distancia objetivo. El trabajo es netamente innovador, pues en el estado del arte documental sobre la materia, que se ha analizado en gran profundidad, tal y como demuestra la bibliografía reseñada, no consta ningún análisis de selección de alternativas de características similares hasta la fecha. Aunque se habla de manera extensiva en los foros y revistas ferroviarias sobre el tema de la rentabilidad que se obtiene por la selección del sistema CBTC como sistema de protección de tren sin embargo éste es un aspecto que nadie ha demostrado de manera analítica hasta el trabajo presente. La Tesis en sí misma es un trabajo original, pues contiene a lo largo de toda ella y en sus anejos, una descripción completa, y adecuadamente comprensible por todo tipo de lector, sobre el estado del arte de los sistemas de automatización ferroviaria. No existe actualmente en lengua castellana, inglesa, francesa o alemana un trabajo de alcance similar. La Tesis se estructura debidamente, proporcionando un hilo documental que permite incluso a los lectores profanos adquirir los conocimientos precisos para poder valorar de manera adecuada el análisis de alternativas que se plantea y su resultado, que resulta coincidente con la hipótesis formulada al inicio de la redacción de la Tesis. Se indican como colofón otras posibles futuras líneas de investigación que se han identificado. Los anejos a la Tesis la complementan con información adicional procesada durante su redacción: • Las tablas de los cálculos del modelo de costes de cada alternativa tecnológica analizada • La visión general del universo de los sistemas de conducción automática de metros globalmente conocidos bajo el acrónimo de CBTC (Communications-Based Train Control), con el detalle actual del mercado de este tipo de soluciones: qué Compañías fabrican, en base a qué solución tecnológica de transmisión, dónde los comercializan y qué entes ferroviarios los utilizan. • Las condiciones a tener en cuenta de cara a decidir la implantación de un sistema CBTC UTO. • El estudio en detalle del caso de reseñalización del Metro de Nueva York describiendo los métodos que se siguieron para elegir las compañías que intervinieron en su realización y lograr la interoperabilidad entre las mismas. • El estado del arte de la definición de estándares y actividades para la interoperabilidad en Europa y Estados Unidos (Proyecto Modurban y Normas del IEEC).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El impacto ambiental directo de la construcción naval, que se refiere a la construcción, mantenimiento y reparación de buques, no es de ninguna manera pequeño. La construcción de buques depende de un gran número de procesos que por sí mismos constituyen un riesgo significativo de daño medio ambiental en el entorno de los astilleros y que conducen a emisiones significativas de gases de efecto invernadero. Además, la construcción naval utiliza algunos materiales que no sólo puede llevar a graves consecuencias para el daño ambiental durante su producción y su uso en el proceso de construcción de la nave, sino también posteriormente durante la reparación de buques, el funcionamiento y las actividades de reciclaje. (OECD 2010) El impacto ambiental directo de la construcción naval constituye de por sí, un desafío importante para la industria. Pero este impacto no queda limitado a su entorno inmediato, aunque la Construcción Naval no es directamente responsable de la repercusión en el medio ambiente de la operación y el reciclaje de buques comerciales, si es una parte integral de estas actividades. (OECD 2010) En esta tesis se sugiere que el sector de la construcción naval puede y debe aceptar sus responsabilidades ambientales no solo en el entorno del astillero; también en la operación de los buques, sus productos; tomando conciencia, a través de un enfoque de ciclo de vida, del desempeño ambiental de la industria en su conjunto. Es necesario intensificar esfuerzos a medida que el impacto ambiental de la industria es cada vez más visible en el dominio público, en pro de un crecimiento verde que permita aumentar la capacidad de actividad o producción económica al tiempo que reduce o elimina, los impactos ambientales. Este será un imperativo para cualquier futura actividad industrial y exigirá naturalmente conocimiento ambiental intrincado perteneciente a todos los procesos asociados. Esta tesis - aprovechando como valiosa fuente de información los desarrollos y resultados del proyecto europeo: “Eco_REFITEC”. FP7-CP-266268, coordinado por el autor de esta Tesis, en nombre de la Fundación Centro Tecnológico SOERMAR - tiene como primer objetivo Investigar la interpretación del concepto de Construcción Naval y Transporte Marítimo sostenible así como las oportunidades y dificultades de aplicación en el sector de la Construcción y reparación Naval. Ello para crear o aumentar el entendimiento de la interpretación del concepto de transporte marítimo sostenible y la experiencia de su aplicación en particular en los astilleros de nuevas construcciones y reparación. Pretende también contribuir a una mejor comprensión de la industria Marítima y su impacto en relación con el cambio climático, y ayudar en la identificación de áreas para la mejora del desempeño ambiental más allá de las operaciones propias de los astilleros; arrojando luz sobre cómo puede contribuir la construcción naval en la mejora de la eficiencia y en la reducción de emisiones de CO2 en el transporte marítimo. Se espera con este enfoque ayudar a que la Industria de Construcción Naval vaya abandonando su perspectiva tradicional de solo mirar a sus propias actividades para adoptar una visión más amplia tomando conciencia en cuanto a cómo sus decisiones pueden afectar posteriormente las actividades aguas abajo, y sus impactos en el medio ambiente, el cambio climático y el crecimiento verde. Si bien cada capítulo de la tesis posee su temática propia y una sistemática específica, a su vez retoma desde una nueva perspectiva cuestiones importantes abordadas en otros capítulos. Esto ocurre especialmente con algunos ejes que atraviesan toda la tesis. Por ejemplo: la íntima relación entre el transporte marítimo y el sector de construcción naval, la responsabilidad de la política internacional y local, la invitación a buscar nuevos modos de construir el futuro del sector a través de la consideración de los impactos ambientales, económicos y sociales a lo largo de ciclo de vida completo de productos y servicios. La necesidad de una responsabilidad social corporativa. Estos temas no se cierran ni terminan, sino que son constantemente replanteados tratando de enriquecerlos. ABSTRACT The direct environmental impact of shipbuilding, which refers to construction, maintenance and repair of vessels, is by no means small. Shipbuilding depends on a large number of processes which by themselves constitute significant risks of damage to the shipyards‘ surrounding environment and which lead to significant emissions of greenhouse gases. In addition, shipbuilding uses some materials which not only may carry serious implications for environmental harm during their production and usage in the ship construction process, but also subsequently during ship repairing, operation, and recycling activities. (OECD 2010) The direct environmental impact of shipbuilding constitutes a major challenge for the industry. But this impact is not limited on their immediate surroundings, but while not being directly responsible for the impact on the environment from the operation and final recycling of commercial ships, shipbuilding is an integral part of these activities. (OECD 2010) With this in mind, this thesis is suggested that the shipbuilding industry can and must take up their environmental responsibilities not only on their immediate surroundings, also on the ships operation, becoming aware through a “life cycle” approach to ships, the environmental performance of the industry as a whole. As the environmental impact of the industry is becoming increasingly visible in the public domain much more effort is required for the sake of “green growth” which implies the ability to increase economic activity or output while lowering, or eliminating, environmental impacts. This will be an imperative for any future industrial activity and will naturally demand intricate environmental knowledge pertaining to all associated processes. This thesis making use as a valuable source of information of the developments and results of an European FP7-collaborative project called "Eco_REFITEC, coordinated by the author of this thesis on behalf of the Foundation Center Technology SOERMAR, has as its primary objective to investigate the interpretation of a sustainable Shipbuilding and Maritime Transport concept and the challenges and opportunities involved in applying for the Shipbuilding and ship repair Sector. It is done to improve the current understanding regarding sustainable shipping and to show the application experience in shipbuilding and ship repair shipyards. Assuming that sustainability is more than just an act but a process, this academic work it also aims to contribute to a much better understanding of the maritime industry and its impact with respect to climate change, and help in identifying areas for better environmental performance beyond the shipyard's own operations; shedding light on how shipbuilding can contribute in improving efficiency and reducing CO2 emissions in shipping. It is my hope that this thesis can help the Shipbuilding Industry to abandon its traditional perspective where each simply looks at its own activities to take a broader view becoming aware as to how their decisions may further affect downstream activities and their impacts on the environment, climate change and green growth. Although each chapter will have its own subject and specific approach, it will also take up and re-examine important questions previously dealt with. This is particularly the case with a number of themes which will reappear as the thesis unfolds. As example I will point to the intimate relationship between the shipping and shipbuilding industry, the responsibility of international and local policy, the call to seek other ways of building the future of the sector through the consideration of the environmental, economic and social impacts over the full life cycle of the products and services, the need for a corporate social responsibility. These questions will not be dealt with once and for all, but reframed and enriched again and again.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inclui notas explicativas e bibliografia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La comunicación persuasiva del siglo XXI ha establecido un nuevo modelo de actuación. Las campañas de comunicación persuasiva de los medios de comunicación de masas y las redes sociales así lo demuestran. Si en los años 80 y 90 los mensajes utilizados por las empresas y organismos mundiales para el logro del cambio de actitud de los sujetos eran diseñados desde estrategias de comunicación global, con mensajes prácticamente iguales para todos los públicos objetivos del planeta, hoy se puede comprobar la preeminencia de la implementación local. La estrategia ha evolucionado, del imperativo de internacionalización de los 80, a la globalización de los 90, hasta llegar a la realidad económica e informativa de un mundo global del siglo XXI, en que el sujeto parece no aceptar ser uno más. En este trabajo reflexionamos sobre esta realidad para tratar de establecer los aspectos que configuran el nuevo perfil del receptor de la comunicación y que propician el cambio en el modelo de acercamiento al sujeto por parte de los emisores de la comunicación social para el logro del éxito en la persuasión. Es objetivo de esta investigación esclarecer y delimitar los aspectos sociales y humanos que han propiciado un cambio en las preferencias e implicaciones del sujeto del siglo XXI...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuestra época se caracteriza por ser una época de «seducción». Lo es, en la medida en que el imperativo actual se ha tornado hacia el goce. Por esta causa me parece de suma importancia estar advertidos de los peligros que esta época conlleva tales como: el hedonismo, el individualismo, la cosificación, la bancarrota del saber, la homogeneización. Síntomas actuales que ponen en entredicho la función de la ética. El psicoanálisis ha hecho grandes aportaciones a la ética. El descubrimiento freudiano ha subvertido la concepción filosófica del ser humano de siglos de pensamiento produciendo un verdadero corte en el pensamiento clásico o moderno donde se le otorgaba a «la razón» un valor muy importante pero que con el descubrimiento de «lo inconsciente» la razón, se vio puesta en jaque. Cuando Freud descubre «lo inconsciente» da cuenta de que «la razón» es sólo una parte de la consciencia y que por lo tanto «no somos dueños de nuestra propia casa», como antes se pensó...