1000 resultados para trattamento dati personali giuridici sensibili privacy tutela del lavoratore video sorveglianza
Resumo:
Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.
Resumo:
Nel sesso maschile il carcinoma della prostata (CaP) è la neoplasia più frequente ed è tra le prime cause di morte per tumore. Ad oggi, sono disponibili diverse strategie terapeutiche per il trattamento del CaP, ma, come comprovato dall’ancora alta mortalità, spesso queste sono inefficaci, a causa soprattutto dello sviluppo di fenomeni di resistenza da parte delle cellule tumorali. La ricerca si sta quindi focalizzando sulla caratterizzazione di tali meccanismi di resistenza e, allo stesso tempo, sull’individuazione di combinazioni terapeutiche che siano più efficaci e capaci di superare queste resistenze. Le cellule tumorali sono fortemente dipendenti dai meccanismi connessi con l’omeostasi proteica (proteostasi), in quanto sono sottoposte a numerosi stress ambientali (ipossia, carenza di nutrienti, esposizione a chemioterapici, ecc.) e ad un’aumentata attività trascrizionale, entrambi fattori che causano un accumulo intracellulare di proteine anomale e/o mal ripiegate, le quali possono risultare dannose per la cellula e vanno quindi riparate o eliminate efficientemente. La cellula ha sviluppato diversi sistemi di controllo di qualità delle proteine, tra cui gli chaperon molecolari, il sistema di degradazione associato al reticolo endoplasmatico (ERAD), il sistema di risposta alle proteine non ripiegate (UPR) e i sistemi di degradazione come il proteasoma e l’autofagia. Uno dei possibili bersagli in cellule tumorali secretorie, come quelle del CaP, è rappresentato dal reticolo endoplasmatico (RE), organello intracellulare deputato alla sintesi, al ripiegamento e alle modificazioni post-traduzionali delle proteine di membrana e secrete. Alterazioni della protestasi a livello del RE inducono l’UPR, che svolge una duplice funzione nella cellula: primariamente funge da meccanismo omeostatico e di sopravvivenza, ma, quando l’omeostasi non è più ripristinabile e lo stimolo di attivazione dell’UPR cronicizza, può attivare vie di segnalazione che conducono alla morte cellulare programmata. La bivalenza, tipica dell’UPR, lo rende un bersaglio particolarmente interessante per promuovere la morte delle cellule tumorali: si può, infatti, sfruttare da una parte l’inibizione di componenti dell’UPR per abrogare i meccanismi adattativi e di sopravvivenza e dall’altra si può favorire il sovraccarico dell’UPR con conseguente induzione della via pro-apoptotica. Le catechine del tè verde sono composti polifenolici estratti dalle foglie di Camellia sinesis che possiedono comprovati effetti antitumorali: inibiscono la proliferazione, inducono la morte di cellule neoplastiche e riducono l’angiogenesi, l’invasione e la metastatizzazione di diversi tipi tumorali, tra cui il CaP. Diversi studi hanno osservato come il RE sia uno dei bersagli molecolari delle catechine del tè verde. In particolare, recenti studi del nostro gruppo di ricerca hanno messo in evidenza come il Polyphenon E (estratto standardizzato di catechine del tè verde) sia in grado, in modelli animali di CaP, di causare un’alterazione strutturale del RE e del Golgi, un deficit del processamento delle proteine secretorie e la conseguente induzione di uno stato di stress del RE, il quale causa a sua volta l’attivazione delle vie di segnalazione dell’UPR. Nel presente studio su due diverse linee cellulari di CaP (LNCaP e DU145) e in un nostro precedente studio su altre due linee cellulari (PNT1a e PC3) è stato confermato che il Polyphenon E è capace di indurre lo stress del RE e di determinare l’attivazione delle vie di segnalazione dell’UPR, le quali possono fungere da meccanismo di sopravvivenza, ma anche contribuire a favorire la morte cellulare indotta dalle catechine del tè verde (come nel caso delle PC3). Considerati questi effetti delle catechine del tè verde in qualità di induttori dell’UPR, abbiamo ipotizzato che la combinazione di questi polifenoli bioattivi e degli inibitori del proteasoma, anch’essi noti attivatori dell’UPR, potesse comportare un aggravamento dell’UPR stesso tale da innescare meccanismi molecolari di morte cellulare programmata. Abbiamo quindi studiato l’effetto di tale combinazione in cellule PC3 trattate con epigallocatechina-3-gallato (EGCG, la principale tra le catechine del tè verde) e due diversi inibitori del proteasoma, il bortezomib (BZM) e l’MG132. I risultati hanno dimostrato, diversamente da quanto ipotizzato, che l’EGCG quando associato agli inibitori del proteasoma non produce effetti sinergici, ma che anzi, quando viene addizionato al BZM, causa una risposta simil-antagonistica: si osserva infatti una riduzione della citotossicità e dell’effetto inibitorio sul proteasoma (accumulo di proteine poliubiquitinate) indotti dal BZM, inoltre anche l’induzione dell’UPR (aumento di GRP78, p-eIF2α, CHOP) risulta ridotta nelle cellule trattate con la combinazione di EGCG e BZM rispetto alle cellule trattate col solo BZM. Gli stessi effetti non si osservano invece nelle cellule PC3 trattate con l’EGCG in associazione con l’MG132, dove non si registra alcuna variazione dei parametri di vitalità cellulare e dei marcatori di inibizione del proteasoma e di UPR (rispetto a quelli osservati nel singolo trattamento con MG132). Essendo l’autofagia un meccanismo compensativo che si attiva in seguito all’inibizione del proteasoma o allo stress del RE, abbiamo valutato che ruolo potesse avere tale meccanismo nella risposta simil-antagonistica osservata in seguito al co-trattamento con EGCG e BZM. I nostri risultati hanno evidenziato, in cellule trattate con BZM, l’attivazione di un flusso autofagico che si intensifica quando viene addizionato l’EGCG. Tramite l’inibizione dell’autofagia mediante co-somministrazione di clorochina, è stato possibile stabilire che l’autofagia indotta dall’EGCG favorisce la sopravvivenza delle cellule sottoposte al trattamento combinato tramite la riduzione dell’UPR. Queste evidenze ci portano a concludere che per il trattamento del CaP è sconsigliabile associare le catechine del tè verde con il BZM e che in futuri studi di combinazione di questi polifenoli con composti antitumorali sarà importante valutare il ruolo dell’autofagia come possibile meccanismo di resistenza.
Resumo:
La diagnosi di neoplasia epiteliale maligna polmonare è legata tradizionalmente alla distinzione tra carcinoma a piccole cellule (small-cell lung cancer, SCLC) e carcinoma non-a piccole cellule del polmone (non-small-cell lung cancer, NSCLC). Nell’ambito del NSCLC attualmente è importante di-stinguere l’esatto istotipo (adenocarcinoma, carcinoma squamocellulare e carcinoma neuroendocrino) perchè l’approccio terapeutico cambia a seconda dell’istotipo del tumore e la chemioterapia si dimostra molto spesso inefficace. Attualmente alcuni nuovi farmaci a bersaglio molecolare per il gene EGFR, come Erlotinib e Gefitinib, sono utilizzati per i pazienti refrattari al trattamento chemioterapico tradizionale, che non hanno risposto a uno o più cicli di chemioterapia o che siano progrediti dopo questa. I test per la rilevazione di specifiche mutazioni nel gene EGFR permettono di utilizzare al meglio questi nuovi farmaci, applicandoli anche nella prima linea di trattamento sui pazienti che hanno una maggiore probabilità di risposta alla terapia. Sfortunatamente, non tutti i pazienti rispondono allo stesso modo quando trattati con farmaci anti-EGFR. Di conseguenza, l'individuazione di biomarcatori predittivi di risposta alla terapia sarebbe di notevole importanza per aumentare l'efficacia dei questi farmaci a target molecolare e trattare con farmaci diversi i pazienti che con elevata probabilità non risponderebbero ad essi. I miRNAs sono piccole molecole di RNA endogene, a singolo filamento di 20-22 nucleotidi che svolgono diverse funzioni, una delle più importanti è la regolazione dell’espressione genica. I miRNAs possono determinare una repressione dell'espressione genica in due modi: 1-legandosi a sequenze target di mRNA, causando così un silenziamento del gene (mancata traduzione in proteina), 2- causando la degradazione dello specifico mRNA. Lo scopo della ricerca era di individuare biomarcatori capaci di identificare precocemente i soggetti in grado di rispondere alla terapia con Erlotinib, aumentando così l'efficacia del farmaco ed evitan-do/riducendo possibili fenomeni di tossicità e il trattamento di pazienti che probabilmente non ri-sponderebbero alla terapia offrendo loro altre opzioni prima possibile. In particolare, il lavoro si è fo-calizzato sul determinare se esistesse una correlazione tra la risposta all'Erlotinib ed i livelli di espressione di miRNAs coinvolti nella via di segnalazione di EGFR in campioni di NSCLC prima dell’inizio della terapia. Sono stati identificati 7 microRNA coinvolti nel pathway di EGFR: miR-7, -21, 128b, 133a, -133b, 146a, 146b. Sono stati analizzati i livelli di espressione dei miRNA mediante Real-Time q-PCR in campioni di NSCLC in una coorte di pazienti con NSCLC metastatico trattati con Erlotinib dal 1° gennaio 2009 al 31 dicembre 2014 in 2°-3° linea dopo fallimento di almeno un ciclo di chemioterapia. I pazienti sottoposti a trattamento con erlotinib per almeno 6 mesi senza presentare progressione alla malattia sono stati definiti “responders” (n=8), gli altri “non-responders” (n=25). I risultati hanno mostrato che miR-7, -133b e -146a potrebbero essere coinvolti nella risposta al trat-tamento con Erlotinib. Le indagini funzionali sono state quindi concentrate su miR-133b, che ha mo-strato la maggiore espressione differenziale tra i due gruppi di pazienti. E 'stata quindi studiata la capacità di miR-133b di regolare l'espressione di EGFR in due linee di cellule del cancro del polmone (A549 e H1299). Sono stati determinati gli effetti di miR-133b sulla crescita cellulare. E’ stato anche analizzato il rapporto tra miR-133b e sensibilità a Erlotinib nelle cellule NSCLC. L'aumento di espressione di miR-133b ha portato ad una down-regolazione del recettore di EGF e del pathway di EGFR relativo alla linea cellulare A549. La linea cellulare H1299 era meno sensibili al miR-133b up-regulation, probabilmente a causa dell'esistenza di possibili meccanismi di resistenza e/o di com-pensazione. La combinazione di miR-133b ed Erlotinib ha aumentato l'efficacia del trattamento solo nella linea cellulare A549. Nel complesso, questi risultati indicano che miR-133b potrebbe aumentare / ripristinare la sensibilità di Erlotinib in una frazione di pazienti.
Resumo:
Background: sulla base delle evidenze emerse dalle rassegne sistematiche in materia (Johnstone, 1994; Cohen et al.,1998; Robson et al., 2012; Burke et al., 2006; Ricci et al., 2015) si è ipotizzato che la formazione alla salute e sicurezza sul lavoro sia maggiormente efficace quando non è presentata come obbligatoria e venga articolata su più livelli di apprendimento, attraverso metodologie adeguate per ogni livello, con docenti che abbiano caratteristiche corrispondenti allo specifico obiettivo di apprendimento e la cui durata sia parametrata all’obiettivo stesso. Obiettivo di questa ricerca è valutare se esista e quanto sia intensa la relazione causale tra la formazione alla sicurezza sul lavoro e i suoi effetti sul miglioramento delle conoscenze, degli atteggiamenti, dei comportamenti, degli esiti per la salute, del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione. Metodo: la variabile indipendente è costituita dell’intervento formativo erogato, articolato in tre condizioni: formazione obbligatoria, formazione non obbligatoria, gruppo di controllo: sono stati posti a confronto due interventi di pari durata (16 settimane, per 10h complessive), realizzati con identiche modalità (step1 audio-visivo; step2 affiancamento su lavoro da parte del preposto; step3 discussione di auto-casi), ma differenziati rispetto all’essere presentati uno come formazione obbligatoria, l’altro come non obbligatoria. I due gruppi sono anche stati confrontati con un gruppo di controllo per il quale la formazione è prevista successivamente. I partecipanti sono stati assegnati in modo casuale al gruppo con obbligo formativo, senza obbligo formativo, di controllo. Sono stati presi come indicatori (variabili dipendenti) per valutare l’effetto della formazione: I livello – conoscenze: riconoscimento o produzione di un maggior numero di risposte corrette. II livello – atteggiamenti e credenze: maggiore propensione a mettere in atto comportamenti auto ed etero protettivi. III livello – comportamenti: comportamenti osservati più adeguati per la tutela della salute propria e altrui. IV livello – salute: maggior grado di benessere bio-psico-sociale auto-riferito. Le misure di esito consistono nella variazione tra la rilevazione iniziale e ogni rilevazione successiva, sulla base delle diverse misure registrate per ognuno dei quattro livelli dell’intervento formativo. Lo stesso confronto del tempo è stato realizzato per le misure del clima di sicurezza aziendale, del controllo comportamentale percepito dai lavoratori, delle condizioni operative e procedure interne, oltre l’eventuale effetto di moderazione determinato da caratteristiche socio-demografiche dei partecipanti e dal gradimento della formazione, quest’ultimo misurato solo immediatamente al termine dell’intervento. Risultati: le condizioni di intervento non differiscono in termini di efficacia, la formazione determina infatti gli stessi risultati per i partecipanti del gruppo obbligo formativo e di quello non obbligo, con una significativa differenza post-intervento rispetto al gruppo di controllo. La formazione ha un effetto forte nel miglioramento delle conoscenze che solo parzialmente decade nel tempo, ma comunque mantenendo un livello maggiore rispetto ai valori iniziali. In relazione al miglioramento di atteggiamenti e comportamenti sicuri nel lavoro al Videoterminale, l’effetto della formazione è modesto: per gli atteggiamenti si registra solo un miglioramento verso l’applicazione delle procedure come utili realmente e non come mero adempimento, ma tale effetto decade entro quattro mesi riportando i partecipanti su valori iniziali; i comportamenti invece migliorano nel tempo, ma con deboli differenze tra partecipanti alla formazione e gruppo di controllo, tuttavia tale miglioramento non decade in seguito. Non si registrano invece effetti della formazione nella direzione attesa in termini di esiti per la salute, per il miglioramento del clima di sicurezza e come maggior controllo comportamentale percepito, non risultano nemmeno dati evidenti di moderazione degli effetti dovuti a caratteristiche socio-demografiche dei partecipanti. Inoltre emerge che il gradimento per la formazione è correlato con migliori atteggiamenti (strumento audio-visivo), il miglioramento del clima di sicurezza e un maggior controllo comportamentale percepito (studio di auto-casi), ovvero gli step che hanno visto l’intervento di formatori qualificati. Infine, la formazione ha determinato migliori condizioni operative e l’adeguamento delle procedure interne. Conclusioni: la presente ricerca ci consente di affermare che la formazione erogata è stata efficace, oltre che molto gradita dai partecipanti, in particolare quando il formatore è qualificato per questa attività (step1 e 3). L’apprendimento prodotto è tanto più stabile nel tempo quanto più i contenuti sono in stretta relazione con l’esperienza lavorativa quotidiana dei partecipanti, mentre negli altri casi il decremento degli effetti è alquanto rapido, di conseguenza ribadiamo la necessità di erogare la formazione con continuità nel tempo. E’ risultato comunque modesto l’effetto della formazione per migliorare gli atteggiamenti e i comportamenti nel lavoro al VDT, ma, al di là di alcuni limiti metodologici, sono obiettivi ambiziosi che richiedono più tempo di quanto abbiamo potuto disporre in questa occasione e il cui conseguimento risente molto delle prassi reali adottate nel contesto lavorativo dopo il termine della formazione. Le evidenze finora prodotte non hanno poi chiarito in modo definitivo se attraverso la formazione si possano determinare effetti significativi nel miglioramento di esiti per la salute, anche eventualmente attraverso interventi di supporto individuale. Inoltre l’assenza di differenze significative negli effetti tra i partecipanti assegnati alla condizione di obbligo e quelli di non obbligo, eccezion fatta in direzione opposta alle attese per la misura del danno da lavoro, suggeriscono che nell’erogare la formazione, occorre sottolineare in misura molto rilevante l’importanza dell’intervento che viene realizzato, anche qualora esistesse una prescrizione normativa cogente. Infine, la ricerca ci ha fornito anche indicazioni metodologiche e misure valide che invitano ad estendere questa formazione, e la sua valutazione di efficacia, a diversi comparti economici e svariate mansioni. Nel fare questo è possibile fare riferimento, e testare nuovamente, un modello che indica la corretta percezione del rischio (conoscenza) come fattore necessario, ma non sufficiente per ottenere, con la mediazione di atteggiamenti favorevoli allo specifico comportamento, azioni sicure, attraverso le quali si rinforza l’atteggiamento e migliorano le conoscenze. La formazione, per raggiungere i propri obiettivi, deve tuttavia agire anche sui meccanismi di conformismo sociale favorevoli alla safety, questi originano da conoscenze e azioni sicure e reciprocamente le rinforzano.
Resumo:
Nel Capitolo I abbiamo osservato come la legittimazione abbia per oggetto la fonte di produzione del diritto, mentre la legalità l’atto emanato dalla fonte nell’esercizio del potere. La legittimazione è fondamento del potere, attiene alla sua titolarità e giustifica l’obbedienza e l’uso della forza. La legalità si riferisce all’esercizio del potere, regolandolo. Si è visto come «quando si esige la legittimazione del potere, si chiede che colui che lo detiene abbia il diritto di averlo. Quando si invoca la legalità del potere, si domanda che chi lo detiene lo eserciti non secondo il proprio capriccio ma in conformità di regole stabilite ed entro i limiti di queste. Il contrario del potere legittimo è il potere di fatto, il contrario del potere legale è il potere arbitrario» . Si è poi precisato che legittimazione e legalità sono i fondamenti alla base dello Stato democratico: laddove non v’è legittimazione non vi può essere neppure democrazia, distinguendo la legittimazione formale, che riguarda chi è legittimato ad agire, ad esercitare il potere, compiendo atti giuridici prescrittivi; dalla legittimazione sostanziale, che riguarda invece che cosa non può e che cosa non può non essere deciso, ossia i limiti e i vincoli imposti all’esercizio del potere . La legittimazione è però presente in tutte le forme di Stato, tanto in quelli autoritari, quanto in quelli democratici. Ciò che distingue tra autoritarietà e democraticità dello Stato è il tipo di atto attraverso il quale si manifesta la legittimazione del potere. Il potere autoritario riceve la propria legittimazione attraverso atti di fede, quello democratico con atti di fiducia. Gli atti di fede possono solo essere spezzati, rotti. Al contrario, gli atti di fiducia possono essere rinnovati o revocati, e pertanto hanno bisogno di norme legali che ne regolino il funzionamento. In tal senso, modelli autoritari e democratici differiscono ulteriormente: nei primi, legittimato il potere, è legittimo tutto ciò che di esso è manifestazione; si può dire che la legittimazione resta tutta assorbita nella legalità. Diversamente, nei modelli democratici, è necessario vi siano norme che disciplinano quell’atto di fiducia legittimante il potere, ma non solo, ve ne devono anche essere altre che regolino l’esercizio del potere stesso. Non solo, ma la legittimazione per essere democratica deve avvenire periodicamente e ha bisogno di un pubblico attivo, informato, consapevole dei suoi diritti, perché è la democrazia ad aver bisogno di un pubblico, di un consenso sociale, che attraverso la propria legittimazione del potere controlli chi quel potere è chiamato ad esercitarlo. Si comprende, allora, perché il principio di legalità in sé e per sé non può garantire la democrazia. Esso garantisce la conformità alla legge, la non arbitrarietà nell’esercizio del potere, ma nulla dice su chi quella legge ha il potere di emanarla, e infatti l’art. 1 del Codice Rocco, durante il fascismo, non garantiva certo le libertà democratiche. Allo stesso modo, la legittimazione sociale in sé e per sé non garantisce la democrazia, perché anche forme di Stato autoritarie, plebiscitarie, hanno un consenso sociale che le sorregge e legittima tutto ciò che chi esercita il potere decide di fare, almeno fino a quando continuano ad avervi fede. Nel Capitolo II abbiamo mostrato come, attraverso la riserva di legge, la Costituzione garantisca entrambi i fondamenti democratici: quello della legalità nell’esercizio della potestà punitiva e quello della legittimazione del Parlamento che la esercita. Dunque, legalità e legittimazione periodica sono un binomio indissolubile, perché possa aversi uno Stato democratico; inoltre è necessario che l’esercizio del potere avvenga “in pubblico” e che l’opinione pubblica abbia una coscienza critica che le consenta di valutare e orientare le proprie scelte. È stato poi sostenuto nel Capitolo III come lo stesso Parlamento non possa – in democrazia – essere libero di sanzionare con pena tutto ciò che vuole, ma sia vincolato direttamente dalla Costituzione rigida e almeno indirettamente dal consenso sociale, che dovrebbe impedire che sia trasformato in illecito penale tutto ciò per la collettività non dovrebbe essere sanzionato come tale. In questo l’informazione, attraverso i mezzi di comunicazione, rappresenta un postulato necessario per ogni modello democratico in grado di influenzare i cittadini nella percezione della realtà. In quest’ultimo Capitolo IV, infine, abbiamo messo in luce come una distorta percezione della realtà, da parte del consenso sociale, alteri “patologicamente” la legittimazione democratica, facendole perdere ogni sua funzione di garanzia nel delimitare il potere politico.
Resumo:
La ricerca punta a ricostruire il complesso e travagliato processo decisionale che porta alla realizzazione del quarto centro siderurgico di Taranto. Il grande stabilimento viene progettato nel 1955, approda sui tavoli del comitato di Presidenza della Finsider nel settembre del 1956 e dopo quasi quattro anni di dibattiti e dietrofront ottiene il via libera dal consiglio dei Ministri il 9 giugno del 1959. La prima pietra del centro verrà posta il 10 luglio del 1960, il primo settore (un tubificio) inaugurato nel 1961, mentre il resto del complesso entrerà in funzione nel 1964. Ispiratore del centro è Pasquale Saraceno e gli uomini dell'associazione Svimez, convinti sostenitori dell'industrializzazione dell'Italia Meridionale. Il progetto sostenuto apertamente dalla Democrazia Cristiana a partire dal 1956 e in seguito da tutte le forze politiche, viene convintamente osteggiato dall'Impresa Pubblica, Finsider in testa, che vede messa a repentaglio l'autonomia imprenditoriale del gruppo e i propri equilibri economici. Il centro meridionale è considerato strategicamente penalizzante ed economicamente sconveniente, dato che i maggiori centri industriali italiani del tempo si trovano nell'Italia Settentrionale (quindi una localizzazione meridionale comporterebbe un aggravio di costi per le operazioni di trasporto dell'acciaio). L'Impresa pubblica opterebbe su una politica imprenditoriale più prudente, incentrata sul potenziamento graduale dei centri già esistenti. Non così la Politica decisa ad attuare una svolta in grado di realizzare evidenti progressi nell'economia meridionale. La nostra ricerca ha cercato di ricostruire l'impegno e le manovre dei principali partiti politici e parallelamente le strategie e le ragioni dell'Impresa pubblica tenendo anche conto del grande dibattito sorto sulla stampa nazionale tra favorevoli e contrari al progetto e al coinvolgimento dell'opinione pubblica meridionale in particolare pugliese. La ricerca si divide in tre parti (dedicate alle origini del progetto (1954-1955), gli sviluppi della vicenda (1957-1958), il via libera al centro (1959-1960) e si articola in sei capitoli (Meridione e industrializzazione: verso il quarto centro siderurgico; La siderurgia italiana verso il boom: il progetto del IV centro a ciclo integrale; La polemica Iri – Dc: uno scontro istituzionale; Il Pci e il centro siderurgico di Taranto; La vicenda Vado Ligure e la posizione dell'impresa privata; L'approvazione del progetto). La tesi cerca di mettere a fuoco la posizione della Politica (Dc e Pci su tutti), della Tecnica (Iri e Finsider ma anche progetti e impegno dei privati, quali la Fiat e la Falck) e della società civile (soprattutto quella tarantina dedicando una certa attenzione al mondo cattolico). La ricerca si è svolta su più livelli. Nel primo anno si è compiuta un'approfondito studio presso l'archivio dell'Iri (conservato presso l'Archivio Centrale dello Stato a Roma), della Dc (Istituto Sturzo, Roma), del Pci (Istituto Gramsci Roma). Il secondo ha permesso di soffermarsi sulle vicende di Taranto (Archivio dell'Arcidiocesi, Archivio del Comune, Biblioteca Comunale). Il terzo è stato focalizzato ancora su vicende politiche e finanziarie (Archivio Storico Banca d'Italia, Archivio Giulio Andreotti, Archivio storico del Senato, tutti con sede a Roma). L'esame dei verbali dei Comitati esecutivi della Finsider per gli anni 1954 -1959 rivela una chiara direzione: la Finsider studia con grande rigore la situazione del mercato italiano, delle varie aziende e dei centri produttivi del Gruppo. Un rigore finalizzato alla chiusura dei centri ritenuti antiquati e poco funzionali e al potenziamento di quelli più moderni e dalle dimensioni imponenti. Un'azione tesa ad incrementare la produzione, essere competitivi sul mercato internazionale e salvaguardare il vero faro dell'azienda in quegli anni: l'economicità. Cioè ottenere il più possibile tutelando gli equilibri finanziari del Gruppo. E' per questo che per ben due anni, i funzionari dell'azienda avanzano progetti complementari, come quello del piccolo centro di Apuania, ma il Comitato esecutivo pur considerando l'investimento indispensabile e conveniente, decide di rinviarne la realizzazione. Gli elementi più rilevanti sono emersi per l'anno 1957. E' noto come il centro siderurgico meridionale fosse messo a rischio da un altro progetto avanzato dalla Fiat, decisa a realizzare un proprio stabilimento nell'Italia settentrionale, a Vado Ligure. Il centro avrebbe dovuto rifornire di acciaio gli stabilimenti della casa automobilistica rendendola indipendente dall'Industria di Stato. Nel caso si fosse realizzato il centro di Vado (al quale la Fiat rinuncerà nel 1957) sarebbe risultato impossibile realizzarne un altro nel Meridione (a quel punto la produzione avrebbe superato i consumi). Dai dati esaminati emerge una trattativa finora inedita che vede il coinvolgimento della Finsider e di privati stranieri.
Resumo:
O presente estudo é resultado da observação de que, em que pese o incremento do ajuizamento de ações coletivas na Justiça do Trabalho, por meio de ações civis públicas, ainda há outras ações coletivas, destinadas à defesa de direitos metaindividuais, que não vêm recebendo o mesmo tratamento. Em especial, as ações cuja pretensão é a tutela dos atos da Administração Pública, que, no contexto do Estado Democrático de Direito, deve conduzir-se em prol do bem comum e, ainda, da garantia dos direitos sociais reconhecidos constitucionalmente. Analisa-se o cabimento dessa tutela pela via do Judiciário Trabalhista, nas situações em que os fatos constantes nas causas de pedir das respectivas ações sejam atinentes a direitos relacionados ao trabalho. Isso porque, na ocorrência de pontos de interseção entre o ato administrativo e as relações de trabalho, o ramo do Judiciário constitucionalmente vocacionado a analisá-los é o Trabalhista, já que o interesse em questão não configura mero ato administrativo, mas, além disso, revela o modo como o agente estatal compreende e orienta a sua conduta, gerando a valorização ou a desvalorização de direitos trabalhistas consagrados pela Constituição Federal. Com base nesse panorama acerca do papel do Estado brasileiro contemporâneo no que diz respeito à garantia de direitos sociais e do papel do Poder Judiciário no que tange à efetivação desses direitos, bem como procedendo ao exame da natureza desses direitos, que requerem novas posturas dos operadores do direito, este trabalho se propõe a afastar concepções antigas relacionadas a argumentos de suposta violação à separação de poderes e de indevida interferência em políticas públicas. Com isso, considerando que o Poder Judiciário tem no processo seu locus de manifestação, abordam-se as principais características do processo coletivo, visando à sua diferenciação em relação ao processo individual, em face da natureza dos direitos que compõem o seu objeto. Com o foco no fortalecimento do Judiciário Trabalhista e aperfeiçoamento do Estado Democrático de Direito, ingressa-se na seara das ações populares e de improbidade administrativa, refinando-se a aplicabilidade delas a atos praticados pela Administração Pública que repercutem na esfera trabalhista. Adota-se como premissa a nova conformação dos limites da competência da Justiça do Trabalho que não mais se restringe a lides de natureza individual ou coletiva entre trabalhadores e seus tomadores de serviço, conformação essa introduzida pela Emenda Constitucional no 45/2004 para defender-se que a consecução do bem comum, levada a efeito com a observância aos princípios regentes da Administração, desafia uma nova visão, especializada no valor social do trabalho, inclusive no que se refere à qualidade dos serviços públicos. As questões apontadas possibilitam concluir sobre a necessidade de se instituir concretamente os conteúdos axiológicos e não meramente patrimoniais que compõem o patrimônio público social, em especial o valor social do trabalho, preservando-o ou restituindo-o à coletividade, por meio de ações populares e de improbidade administrativa ajuizadas perante a Justiça do Trabalho. A pesquisa mostra que se alarga a garantia ao cidadão no que tange ao uso dos valores e recursos públicos para a promoção do bem comum e a evolução da coletividade.
Resumo:
Este artículo tiene como objetivo examinar el impacto y las consecuencias sociales contemporáneas del mantenimiento del sistema de organización social denominado «reserva indígena» en Canadá. Mediante un estudio de caso, se explora cómo la política organizacional y la estructura institucional contemporánea en las reservas indígenas canadienses están alimentando problemas psicosociales y de salud mental como, por ejemplo, abuso de sustancias psicoactivas, depresión, negligencia parental o violencia doméstica. Tres características estructurales se identifican como problemas inherentes en la estructura organizacional de las reservas contemporáneas: el desempleo estructural, la dependencia de programas de asistencia social y el faccionalismo comunitario.
Resumo:
Este trabajo tiene como objetivo examinar el impacto y las consecuencias sociales contemporáneas del mantenimiento del sistema de organización social denominado reserva indígena en Canadá. Mediante un estudio de caso, se explora cómo la política organizacional y la estructura institucional contemporánea en las reservas indígenas canadienses está alimentando problemas psicosociales y de salud mental como, por ejemplo, abuso de sustancias psicoactivas, depresión, negligencia parental, violencia doméstica... Tres características estructurales son identificadas como problemas inherentes en la estructura organizacional de las reservas contemporáneas: el desempleo estructural, la dependencia a programas de asistencia social y el faccionalismo comunitario.
Resumo:
En este trabajo expondremos un análisis exhaustivo de como se ha desarrollado la acción tutorial en la Escuela Politécnica Superior de la Universidad de Alicante en el curso 2014/2015. El marcado carácter de voluntariedad de la acción tutorial en nuestro centro por parte de estudiantes y tutores permite que el trabajo se realice más satisfactoriamente tanto por parte de tutores como por parte de los estudiantes, puesto que han decidido seguir el plan por ello mismos y no como una imposición. Además expondremos nuestras experiencias en el desarrollo del Taller de Gestión Eficaz del Tiempo, taller desarrollado en nuestro centro bajo la tutela de la experta Nuria Alberquilla, que tiene entre otros muchos objetivos el aprendizaje y puesta en práctica de técnicas para realizar una gestión eficaz del tiempo, con un mejor equilibrio entre la vida académica y personal y la identificación de los principales factores externos e internos que influyen en los resultados obtenidos, y cómo mejorarlos.
Resumo:
L’argomento principale di questa tesi è il doppiaggio. Nel primo capitolo ci inoltriamo nel mondo della traduzione audiovisiva, concentrandoci sulla storia del doppiaggio e sui processi che servono per portare le opere in paesi dove non si parla la lingua originale dei film e delle serie tv. Il secondo capitolo introduce la serie tv americana targata ABC Once Upon A Time. Vengono presentati trama, personaggi, temi e alcuni dati sulla distribuzione della serie in Italia e in Spagna. Il terzo capitolo invece, ci porta nel pieno dell’analisi del doppiaggio in italiano e in spagnolo del primo episodio della serie attraverso la comparazione con l’originale inglese e lo studio della varietà diacronica attraverso le formule di cortesia, il lessico, la fraseologia, i sintagmi verbali e la morfologia. In conclusione, il nostro scopo è quello di dimostrare che la scelta traduttiva adottata dalla Spagna è diversa da quella italiana, quest’ultima più simile all’originale inglese.
Resumo:
Il GPS è un sistema che consente d’individuare la posizione di un qualsiasi punto sulla superficie terrestre, dal quale sia possibile ricevere i segnali da almeno quattro satelliti. È costituito da un sistema di satelliti in orbita, i quali trasmettono informazioni a dei ricevitori GPS sulla Terra. Questi dati raccolti riguardano coordinate geografiche ed orari, che vengono successivamente elaborate dal ricevitore stesso. In campo topografico possono essere adottate diverse modalità operativo, soprattutto: il metodo statico e statico rapido, mentre per il rilievo di dettaglio è principalmente utilizzato il metodo cinematico. Il GPS può essere utilizzato per rilievi sia in planimetria che in altimetria. In questa tesi si è deciso di valutare principalmente l’utilizzo del GPS in altimetria in modalità statica. Per fare ciò, si è eseguito un confronto su corte distanze tra le misurazioni altimetriche, in una prima fase eseguite con strumentazione topografica classica e successivamente con il sistema GPS. Il sito scelto per effettuare questa valutazione è stato il terrazzo di copertura dell’edificio della Scuola di Ingegneria di Bologna, sul quale sono presenti due antenne di riferimento (SLITTA e UNBO) con ricevitori GPS, che hanno consentito la realizzazione di una baseline di test. Essendo molto corta la distanza tra le due antenne, si può quindi parlare di short-baselines. Il sistema GPS fornisce dati con una precisione che risente in modo molto minore, rispetto alle tecniche topografiche classiche, della propagazione della varianza all’aumentare della distanza, ma al tempo stesso non consente di raggiungere precisioni millimetriche anche su brevissime distanze. Verranno descritte le due metodologie di rilievo e i risultati ottenuti da ognuna. Si procederà in seguito con l’analisi e la rielaborazione di questi dati tramite software e solo in fine verrà eseguito il confronto, atto a verificare la precisione del GPS rispetto alla strumentazione topografica.
Resumo:
In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.
Resumo:
L’obiettivo della tesi è quello di fare una panoramica sulla strategia BIM e quindi sulla digitalizzazione del processo costruttivo. Grazie alla analisi di un caso di studio, altro obiettivo è quello di analizzare e valutare la metodologia BIM 4D/5D, ossia la gestione dei tempi e dei costi di realizzazione dell’opera. Nella prima fase si affronta il tema del BIM, con una analisi sull’evoluzione degli strumenti di elaborazione e rappresentazione digitale del progetto architettonico, su come questi strumenti si differenzino sia dal punto di vista operativo che concettuale rivoluzionando il flusso di lavoro odierno. Quindi, partendo da un’analisi che e ritrae l’estrema frammentazione del settore delle costruzioni, si va ad analizzare come il BIM aumenti e favorisca la collaborazione delle parti interessate, armonizzando l’intero processo costruttivo dell’opera. Si prosegue con l'esame della diffusione e del livello di maturità degli strumenti BIM, di come i privati e le amministrazioni pubbliche, a livello mondiale, stiano spingendo per favorire l’adozione della metodologia BIM. Inoltre si analizzano le dinamiche dell’interoperabilità, delle metodologie e protocolli di interscambio dati, che sono un elemento chiave per il successo del BIM per via dei numerosi strumenti, specializzati nelle varie discipline del settore edile. Nella terza parte, dedicata al Project Management di un caso di studio, si verifica la bontà delle metodologie teorizzate attraverso la realizzazione di un modello virtuale in Revit. Dal modello realizzato dal laureando sono estrapolate le informazioni necessarie alla gestione, e tramite il software STRVison CPM, si elaborano i principali documenti per la progettazione e gestione del cantiere: il CM, il CME, i tempi operativi, il cronoprogramma Gantt. Obbiettivo è constatare l’effettivo livello di maturità della strategia BIM 4D e 5D e la reale possibilità di un impiego capillare nel panorama italiano del settore delle costruzioni.