270 resultados para Analogía


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este trabajo, ha sido el analizar los modos de interpretación de las leyes tributarias vigentes en los países de la Comunidad Andina de Naciones, relacionándolos con los principios esbozados por la doctrina impositiva más autorizada, así como en algunos casos, tomando en consideración ciertos fallos jurisprudenciales. Para cumplir con el objetivo propuesto, en primer lugar se ha estudiado la naturaleza misma del Derecho Tributario, donde se ha explicado las razones por las cuales esta rama jurídica, es una ciencia con autonomía científica y dogmática. Este presupuesto es el punto de partida para analizar sí existen o no mecanismos propios de hermenéutica en la aplicación de una disposición impositiva. Otro punto consecuencia del anterior, tiene que ver con la naturaleza misma de las normas tributarias. Serán normas especiales o serán de aquellas comunes, como cualquier otra disposición del mismo rango. En uno y otro caso, qué métodos de comprensión del derecho se deben usar. Cómo funciona el principio de la Autonomía Calificadora del Derecho Fiscal, y qué consecuencias tiene para el entendimiento de la norma. Las palabras utilizadas en un precepto en particular cómo tienen que ser discernidas: en su sentido jurídico, en su sentido técnico o en su sentido usual. Son temas que a más que nos ayudan a comprender los métodos de interpretación jurídica, también nos proveen de conocimientos adicionales para vislumbrar de mejor forma la esencia del Derecho Tributario. El problema de la analogía en la interpretación del derecho. Es un método de integración o de interpretación propiamente dicho. El derecho como ciencia, tiene lagunas o vacíos? O quizá estos huecos sólo se produzcan en la legislación vigente. Cómo influyen estos fenómenos en la hermenéutica jurídica. El trabajo trata de contestar estas interrogantes. Aunque el hecho imponible, en la mayoría de las ocasiones se encuentra conformado por un hecho económico, la interpretación de las normas que lo crean, deben dar prioridad al análisis jurídico o al entendimiento económico. Como aplicar una norma, cuando el contribuyente para disminuir su carga fiscal, utiliza figuras jurídicas de desnaturalizan su real intención. Qué debe hacer el intérprete en estos casos. Son situaciones que también han sido analizadas. Hasta qué punto es importante la aplicación de los métodos de interpretación de las normas impositivas, por parte de la Administración Tributaria. Sus actos tienen alguna relación con la materia estudiada en esta tesis. Los métodos estudiados, son susceptibles de aplicación para comprender los tratados internacionales que evitan la Doble Imposición Internacional. Cómo deben interpretarse estos convenios: a la luz del derecho interno? Existen normas expresas que ayudan en su entendimiento?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo apunta a evidenciar la representación del Plan Colombia en Colombia y en Estados Unidos, a partir de la promesa retórica de la pacificación forzosa para hacer viable la prosperidad democrática como paso obligado para lograr el fortalecimiento del Estado. El Plan Colombia se vislumbra en este estudio, insertado en un diseño global imperial que ilustra por analogía un patrón de dominación que opera con estrategias discursivas equiparables en otras partes del planeta, donde la intervención militar, económica y cultural del poder contemporáneo impone discursos, a través del poder simbólico, la seducción y la fuerza militar, económica y jurídica. Como entrada metodológica se presenta el sistema-mundo moderno, la macroestructura de la colonialidad del poder y los elementos teóricos que soportan la perspectiva decolonial del análisis del discurso; la propuesta conceptual de la heterogeniedad histórica estructural planteada por Quijano, y la Teoría Crítica de la Cultura, elaborada por Santiago Castro-Gómez. Se ubica a Colombia en su sitio en la jerarquía de poder del sistema mundo y se introducen los principales elementos contextuales tanto históricos como presentes, en los cuales se desarrolla el Plan Colombia. Se analiza el impacto de la lucha global contra las drogas y el terrorismo global como ejes principales de articulación simbólica y discursiva para justificar la implementación del Plan desde dos historias locales, la de los Estados Unidos y la de Colombia, enmarcados en uno de los diseños globales y guerras privadas del Siglo XXI. Se aborda el tema de la hegemonía política en el sistema-mundo y su estructura a nivel local y global. La dimensión geopolítica que permite la continuidad de las hegemonías globales y locales se estructura desde discursividades e imaginarios simbólicos inscritos en ellas, tanto desde los diseños globales imperiales como desde las historias locales, manipuladas políticamente por las élites económicas y políticas de los Estados Unidos y por la élites del Tercer Mundo. La promesa para Colombia de avanzar en el esquema del sistema – mundo moderno hacia la semiperiferia, impulsó al Estado colombiano a profundizar el conflicto armado de más de 50 años de duración, entre otros, gracias al aporte militar, al apoyo técnico y al respaldo a Colombia de los Estados Unidos a través del Plan Colombia. En este contexto ¿Cómo entender y develar las intencionalidades del Plan Colombia de sus gestores globales y de quienes lo apoyan en Colombia y en Estados Unidos? A través del análisis discursivo en perspectiva decolonial, situado histórica y contextualmente, el texto se adentra en las respuestas de éstas y otras preguntas relacionadas con el esquema de dominación global contemporáneo. La perspectiva de análisis decolonial apunta al desmonte del modelo civilizatorio occidental euroestadounidense pues no es cierto que exista una sola tradición epistémica de la que se derive la verdad y la universalidad, aunque el totalitarismo colonial autoritario de occidente se haya erigido como universal obligatorio para todos. Se toma a “occidente” como referente epistemológico que nos rige porque es en occidente y a través de occidente que se ha enquistado la colonialidad del poder en el mundo, derivada del proyecto moderno colonial eurocéntrico, perpetuado a través del tiempo y que se mantiene en el Siglo XXI. La aproximación al Plan Colombia se presenta desde la jerarquía geopolítica y geo cultural para el caso colombiano, así como su lugar en el mundo de acuerdo con el esquema centro – periferia – semiperiferia de dicho sistema. Lo anterior implica ubicar a Colombia en el sistema-mundo, teniendo en cuenta la matriz colonial de larga duración que nació con la invasión a América y que se perpetúa hasta hoy en el Estado nación colombiano, a través de los esquemas de dominación física, de poder material y de control simbólico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente artículo analiza el proceso de justicia indígena del caso públicamente conocido como “La Cocha 2”, y tiene como objetivo detallar el cumplimiento de las cinco etapas del proceso que aplican las comunidades Kichwa de la Sierra, en especial en la Provincia de Cotopaxi, y que finalmente permiten hacer una analogía con lo que en el derecho occidental se conoce como el Derecho al Debido Proceso. Busca ser un aporte a la discusión sobre la justicia indígena, eliminar ciertos estereotipos, pero sobre todo que se amplíe el debate por su respeto y garantía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Syftet med studien var att belysa vilka verbala och ickeverbala tecken en person med demens kunde uppvisa vid smärttillstånd och vilka typer av hjälpmedel kunde underlätta sjuksköterskans arbete med att bedöma smärta hos personer med demenssjukdom. Design för studien var systematisk litteraturstudie med både kvalitativa och kvantitativa resultatartiklar. Resultat från artiklarna gav ett vitt spektrum av både verbala och ickeverbala indikatorer för smärta hos patienten. Till de vanligaste smärtsignalerna räknades ändringar i ansiktsuttryck efter vokala läten och direkta ord om smärta. Forskarna fann även att personerna med demensproblematik kunde reagera med att bli ”tysta” och att ”dra sig undan” eller att bli aggressiva, oroliga och allmänt utåt agerande. Resultat på studiens andra fråga, vilka typer av hjälpmedel kunde underlätta sjuksköteskans arbete med att bedöma smärta hos personer med demenssjukdom, gavs en variation av smärtbedömningsinstrument. Från analoga skalor där patienten i själv uppskattade smärta till skalinstrument där sjuksköterskan värderade patientens observerade smärta. Forskarna fann att smärtbedömningsinstrumenten ofta var ”trubbiga” och enbart kunde adekvat mäta smärta hos patienter med verbalförmåga helt eller delvis med fragmenterade ord, men ofta oanvändbar till svårt nedsatt kognitivförmåga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I denna uppsats undersöks huruvida en lyssnare kan skilja på två ljudmixar som är mixade på samma sätt men summerade på olika sätt. Den ena summeras analogt och den andra digitalt. Om så är fallet, hur tycker lyssnaren att dessa skillnader yttrar sig? Som metod fick en testpanel i ett blindtest lyssna på två olika mixar, en rocklåt och en jazzlåt, som båda fanns i både analogt och digitalt summerade versioner. Dessa fick testsubjekten sedan besvara några frågor kring och tycka till om dessa olika versioner i en kvalitativ enkätundersökning Det visade sig att skillnader uppfattades av merparten av lyssnarna. Den vanligast förekommande beskrivningen var att det var skillnad på stereobredd, djup och dynamik i mixarna beroende på hur de summerats. Även ord som klarhet, värme och tydlighet förekom. Testpanelen var överlag även väldigt bra på att gissa vilken version som var summerad på vilket sätt. Dessa gissningar verkar i på många fall vara baserad på den förutfattade meningen att analogt borde vara bättre. Det är ganska tydligt att detta forskningsarbete i mångt och mycket är en fallstudie för just de variabler som förekom (märke på den analoga summeraren, ljudkvalité på de inspelade ljudet, programmaterial med mera). Fler tester och undersökningar behövs för att kunna dra generella slutsatser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Huvudsyftet med denna empiriska studie har varit att undersöka om och hur några lärare på Åland praktiskt arbetar med multimodalt skrivande i årskurs 4-6, samt deras upplevelser av och inställning till det multimodala skrivandet i skolan. Det multimodala skrivandet har i denna studie definierats som att skriftlig, visuell och auditiv teckenvärld kombineras på ett eller annat sätt. Skrivuppgifter där text kombinerats med bild och ljud är exempel på detta. Genom halvstrukturerade intervjuer visar studien att det multimodala skrivandet förekommer relativt ofta, främst det som innefattar text och bild. Dessutom förekommer både analoga och digitala multimodala skrivuppgifter i undervisningen. Det visar sig att möjligheterna är många med lärare som generellt är positiva till det multimodala skrivandet i skolan. Det är snarare lärarna själva som begränsar den multimodala skrivundervisningen på grund av egen osäkerhet. Den digitala tekniken kan stundtals också ställa till med bekymmer. Vidare visar studien att lärare behöver utveckla och förstå att den multimodala skrivprocessen är en integrerad process där helheten är det centrala. Lärare behöver även utveckla den multimodala skrivkompetensen eftersom den granskande aspekten av texters budskap är lika viktig som att låta olika teckenvärldar samspela. Trots en obekanthet med begreppet så inkluderar lärare multimodalt skrivande i sin undervisning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Syftet med denna studie är att undersöka vad som väcker uppmärksamhet hos arbetsgivaren i den digitala portfolion. Studiens fokus är riktad mot nyexaminerade studenter. Den digitala portfolion ersätter successivt den analoga portfolion och som grafisk designer är portfolion en viktig del av identiteten. Idag finns ingen anledning till att inte använda sig av en digital portfolio. Semistrukturerade djupintervjuer utfördes för att undersöka hur kreatören på bästa sätt väcker arbetsgivarens uppmärksamhet genom den digitala portfolion. Studien undersökte även vilken roll lärosätet har när arbetsgivaren granskar portfolion. Resultaten presenteras genom olika teman som t ex alstren ska vara i fokus, unika lösningar och nytänkande väcker uppmärksamhet och vikten av ett bra första intryck. Studien visade att alstren i en digital portfolio ska tala för sig själva och vara relevanta för tiden, ingen överarbetad design ska finnas på portfolion. Likaså är lärosätet mindre viktigt för arbetsgivare, däremot kan högre krav ställas på en portfolio från vissa lärosäten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o objetivo principal da pesquisa é analisar a influência conjunta do tamanho e da velocidade de deformação (ou velocidade de alongamento) nas propriedades mecânicas do aço, procurando determinar a possível existência de acoplamento produzido com a variação conjunta dos dois parâmetros. A pesquisa inclui a revisão bibliográfica, a análise teórica do assunto e um estudo experimental com 130 corpos de prova de diferentes tamanhos, extraídos duma única chapa grossa de aço, ensaiados com diferentes velocidades de deformação, obtendo resultados de distintas variáveis (resistência à tração, deformação de ruptura, energia consumida por unidade de volume, deformação correspondente à resistência à tração e redução da área na zona de escoamento). As principais conclusões da análise teórica são: a) Levando em consideração que o conceito de comprimento característico do material é de fundamental importância para interpretar o efeito de tamanho, se determina a forma geral da função f que define o fenômeno, para materiais com um e dois comprimentos característicos. b) Por analogía, para analisar o efeito produzido pela velocidade de deformação se pode supor a existência de uma, o mais de uma, velocidade de deformação característica do material, resultando uma função f que tem a mesma forma geral que no efeito de tamanho. c) Os atuais modelos que interpretam os efeitos de tamanho e de velocidade de deformação podem ser expressados na forma das expressões gerais encontradas. d) Também se determina a forma geral da função.f que define o efeito conjunto de tamanho e de velocidade de deformação quando não existe acoplamento das duas variáveis e no caso geral de um material com um comprimento e uma velocidade de deformação característica Os principais resultados do estudo experimental são: a) A variação das propriedades quando varia o tamanho, a velocidade de deformação, a posição na espessura e a região da qual é extraído o corpo de prova. b) Existe acoplamento dos dois efeitos claramente significativo para a resistência à tração e a deformação correspondente à resistência à tração, apenas significativo para a deformação de ruptura e a energia consumida por unidade de volume e não significativo para a redução da área na zona de escoamento. c) Do estudo experimental da resistência à tração resulta que o acoplamento dos dois efeitos é tal que quando aumenta a velocidade de deformação e diminui o tamanho o efeito conjunto se acentua e quando diminui a velocidade de deformação e aumenta o tamanho o efeito conjunto se atenua. d) Com base nos critérios existentes que analisam os dois efeitos por separado é deíinido um novo critério para a resistência à tração, incorporando termos que permitem interpretar o acoplamento dos dois efeitos, obtendo um melhor resultado que reduz a soma de quadrados dos resíduos em 20 % . As conclusões da tese proporcionam maior informação teórica e experimental dos efeitos de tamanho e de velocidade de deformação nas propriedades mecânicas dos materiais que podem contribuir para adotar decisões na consideração destes efeitos nas estruturas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse artigo apresenta um estudo sobre bancos da fase marajoara da tradição Policrômica da Amazônia, realizado a partir de dados obtidos durante escavações e análises de laboratório. Informações etnohistóricas e etnográficas são usadas para construir hipóteses sobre os possíveis usos e significados dos prováveis assentos circulares de cerâmica encontrados na ilha de Marajó, mas raros em outros contextos etnográficos e arqueológicos. A ausência de bancos nos contextos funerários é tida como indicação de seu uso mundano, ainda que possam ter sido usados em contextos rituais que não o funerário. O exame da iconografia desses objetos, onde predominam os motivos incisos que parecem imitar esteiras produzidas com fibras trançadas, sugere seu uso como assento. Finalmente, uma descrição etnográfica de uma cerimônia de castração feminina é apresentada, mostrando, o uso, nesse contexto, de quatro objetos exóticos e raros, mas que fazem parte da cultura material da fase marajoara. A analogia etnográfica, neste caso, traz novas possibilidades para entender os possíveis usos para os bancos de cerâmica marajoara.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tendo em vista a importância do ambiente, das relações afetivas e dos efeitos negativos da privação materna nos primeiros anos de vida para o desenvolvimento infantil, a presente pesquisa buscou compreender a experiência de crianças em situação de abrigamento. Para tanto, foram observadas duas crianças, na faixa etária de 23 a 31 meses, de nomes fictícios João e Maria, cujas histórias de vida proporcionaram uma analogia com o conto “João e Maria” dos Irmãos Grimm. As observações foram realizadas em um abrigo estadual, que acolhe crianças de zero a seis anos de idade, na cidade de Belém-PA. As sessões ocorreram duas vezes por semana, com duração de uma hora, durante cinco meses, a partir da aplicação do Método Bick de Observação de Bebês, em seus três momentos distintos: observação, anotação e supervisão em grupo. Os resultados foram organizados em três categorias: 1) O ambiente de cuidado de João e Maria, 2) João e Maria revelados por suas peripécias, e 3) Encontros com a observadora-narradora, sendo esses três eixos analisados com base na perspectiva psicanalítica winnicottiana. Na primeira categoria, foram apresentados fragmentos da história de vida de João e Maria, além de aspectos referentes aos cuidados recebidos nesse contexto, que estiveram permeados, principalmente, por carência de afeto e ausência na priorização das necessidades reais, no tempo e ritmo das crianças, possivelmente em função da dinâmica institucional. Na segunda categoria, foram abordadas as brincadeiras de João e Maria, associadas especialmente ao contato corporal e à relação de cuidados envolvendo seus pares e a observadora, cuja temática mais frequente foi da alimentação. Na terceira e última categoria, foram apresentados os sentimentos, as dificuldades e o aprendizado da observadora, bem como, a sua mobilização interna diante da história de vida das duas crianças e das particularidades do ambiente. Portanto, foi constatado que João e Maria buscavam cuidar e serem cuidados, o que, em sua maioria, envolvia contato corporal e afetivo; mostraram-se disponíveis no contato com o outro e se permitiram criar vínculos afetivos, aspectos saudáveis e positivos para o desenvolvimento infantil. Indubitavelmente, o entendimento da teoria winnicottiana e a utilização do Método Bick de Observação de Bebês contribuíram para a compreensão da experiência de João e Maria e colaboraram significativamente para uma apreensão da realidade dessas crianças e dos seus contextos de desenvolvimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Programa de doctorado: Ingeniería de Telecomunicación Avanzada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le aree costiere hanno un ruolo fondamentale nello sviluppo economico, sociale e politico della maggior parte dei paesi; esse supportano infatti diversi ecosistemi produttivi che rendono disponibili beni e servizi. L'importanza economica delle aree costiere è destinata a una considerevole crescita a causa del costante aumento delle popolazioni, delle industrie e delle attività  ricreazionali che si concentrano sempre di più sulle coste e ciò può provocare un'alterazione delle linee di costa, imputabile a più fattori e un deterioramento delle condizioni naturali. E' necessario anche tenere da conto dei processi erosivi, sia imputabili a cause naturali (correnti oceaniche, movimenti di marea; azione del vento) sia a cause antropiche (subsidenza del terreno indotta dall'uomo, dragaggio al largo, riduzione del rifornimento di sedimento dai fiumi, distruzione di letti algali, paludi e dune sabbiose). A questo panorama va poi aggiunto il problema dell'innalzamento del livello del mare e dell'aumento delle frequenze di tempeste, come conseguenza del cambiamento climatico globale. In questo contesto quindi, le strutture rigide di difesa contro l'erosione e le mareggiate sono diventate molto comuni nelle aree costiere, coinvolgendo in alcune regioni più della metà della linea di costa. Il meccanismo di difesa attuato dalle barriere consiste nel provocare una riduzione dell'energia delle onde e conseguentemente in una limitazione della quantità di sedimento che viene da loro rimosso dalla spiaggia. La presenza di strutture rigide di difesa generalmente comporta una perdita di habitat di fondale molle e, a causa delle variazioni idrodinamiche che la loro presenza comporta, anche delle comunità ad esso associate, sia su scala locale, che su scala regionale. Uno dei problemi che tali strutture possono indurre è l'eccessiva deposizione di detrito prodotto dalle specie che si insediano sul substrato duro artificiale, che normalmente non fanno parte delle comunità "naturali" di fondo molle circostanti le strutture. Lo scopo di questo studio è stato quello di cercare di evidenziare gli effetti che la deposizione di tale detrito potesse avere sulle comunita meiobentoniche di fondale molle. A tale fine è stata campionata un'area antistante la località di Lido di Dante (RA), la quale è protetta dal 1996 da una struttura artificiale, per fronteggiare il problema dell'erosione della zona, in aumento negli ultimi decenni. La struttura è costituita da una barriera semisoffolta e tre pennelli, di cui uno completamente collegato alla barriera. A circa 50 m dalla barriera, e alla profondità di 4 m circa, è stato allestito un esperimento manipolativo in cui è stato valutato l'effetto della deposizione delle due specie dominanti colonizzanti la barriera, Ulva sp. e Mitili sp. sull'ambiente bentonico, e in particolare sulla comunità  di meiofauna. Ulva e Mitili sono stati posti in sacche di rete che sono state depositate sul fondo al fine di simulare la deposizione naturale di detrito, e tali sacche hanno costituito i trattamenti dell'esperimento, i quali sono stati confrontati con un Controllo, costituito da sedimento non manipolato, e un Controllo Procedurale, costituito da una sacca vuota. Il campionamento è stato fatto in tre occasioni nel giugno 2009 (dopo 2 giorni, dopo 7 giorni e dopo 21 giorni dall'allestimento dell'esperimento) per seguire la dinamica temporale degli effetti del detrito. Per ogni combinazione tempo/trattamento sono state prelevate 4 repliche, per un totale di 48 campioni. Successivamente sono stati prelevati ulteriori campioni di meiofauna in condizioni naturali. In particolare sono stati raccolti in due Posizioni diverse, all'Interno e all'Esterno del pennello posto più a Sud, e su due substrati differenti, rispettivamente Ulva proveniente dalle barriere e sedimento privo di detrito. Per ogni combinazione Posizione/Substrato sono state prelevate 3 repliche, ottenendo un totale di 12 campioni. Tutti i campioni prelevati sono stati poi trattati in laboratorio tramite la procedura di filtratura, pulizia e centrifuga indicata dal protocollo. A questa fase è seguito il sorting al microscopio, durante il quale la meiofauna è stata identificata ed enumerata a livello di taxa maggiori. Per quanto riguarda il taxon più abbondante, quello dei Nematodi, si è proceduto anche all'analisi della distribuzione della biomassa per classi di taglia, in quanto descrittore funzionale delle comunità. Per la costruzione degli spettri di biomassa per classi di taglia sono state misurate la lunghezza e larghezza dei primi 100 Nematodi presenti nei campioni. A partire da tali valori dimensionali è stata calcolata la biomassa di ogni individuo, usata poi per la costruzione dei size spectra, tramite tre metodiche messe a confronto: "Nematode Biomass Spectra" (NBS), "Normalised Nematode Biomass Spectra"(NNBS), "Mean Cumulative Biomass Spectra" (MC-NBS). Successivamente la composizione e la struttura della comunità meiobentonica, in termini di consistenza numerica e di rapporti reciproci di densità degli organismi che la compongono e variabili dimensionali, sono state analizzate mediante tecniche di analisi univariate e multivariate. Ciò che emerge generalmente dai risultati dell'esperimento è la mancanza di interazione significativa tra i due fattori, tempi e trattamenti, mentre sono risultati significativi i due fattori principali, considerati singolarmente. Tali esiti sono probabilmente imputabili all'elevata variabilità fra campioni dei trattamenti e delle patches di controllo. Nonostante ciò l'analisi dei risultati ottenuti permette di effettuare alcune considerazioni interessanti. L'analisi univariata ha mostrato che nel confronto tra trattamenti non ci sono differenze significative nel numero medio di taxa rinvenuti, mentre il livello di diversità e di equidistribuzione degli individui nei taxa differisce in maniera significativa, indicando che la struttura delle comunità varia in funzione dei trattamenti e non in funzione del tempo. Nel trattamento Ulva si osservano le densità più elevate della meiofauna totale imputabile prevalentemente alla densità dei Nematodi. Tuttavia, i valori di diversità e di equiripartizione non sono risultati più elevati nei campioni di Ulva, bensì in quelli di Mitili. Tale differenza potrebbe essere imputabile all'inferiorità numerica dei Nematodi nei campioni di Mitili. Questo andamento è stato giustificato dai differenti tempi di degradazione di Mitili e Ulva posti nelle sacche durante l'esperimento, dai quali emerge una più rapida degradazione di Ulva; inoltre la dimensione ridotta della patch analizzata, i limitati tempi di permanenza fanno sì che l'Ulva non rappresenti un fattore di disturbo per la comunità analizzata. Basandosi su questo concetto risulta dunque difficile spiegare l'inferiorità numerica dei Nematodi nei campioni del trattamento Mitili, in quanto i tempi di degradazione durante l'esperimento sono risultati più lenti, ma è anche vero che è nota l'elevata resistenza dei Nematodi ai fenomeni di ipossia/anossia creata da fenomeni di arricchimento organico. E' possibile però ipotizzare che la presenza delle valve dei Mitili aumenti la complessità dell'habitat e favorisca la colonizzazione da parte di più specie, tra cui specie predatrici. Tale effetto di predazione potrebbe provocare la riduzione dell'abbondanza media dei Nematodi rispetto a Ulva e al Controllo, in quanto i Nematodi costituiscono circa l'85% della meiofauna totale rinvenuta nei campioni. A tale riduzione numerica, però, non corrisponde un decremento dei valori medi di biomassa rilevati, probabilmente a causa del fatto che l'arricchimento organico dovuto ai Mitili stessi favorisca la permanenza degli individui più facilmente adattabili a tali condizioni e di dimensioni maggiori, oppure, la colonizzazione in tempi successivi delle patches a Mitili da parte di individui più grandi. Anche i risultati dell'analisi multivariata sono in accordo con quanto rilevato dall'analisi univariata. Oltre alle differenze tra tempi si evidenzia anche un'evoluzione della comunità nel tempo, in particolar modo dopo 7 giorni dall'allestimento dell'esperimento, quando si registrano il maggior numero di individui meiobentonici e il maggior numero di taxa presenti. Il taxon che ha risentito maggiormente dell'influenza dei tempi è quello degli Anfipodi, con densità maggiori nei campioni prelevati al secondo tempo e sul trattamento Ulva. E'importante considerare questo aspetto in quanto gli Anfipodi sono animali che comprendono alcune specie detritivore e altre carnivore; le loro abitudini detritivore potrebbero quindi aumentare il consumo e la degradazione di Ulva, spiegando anche la loro abbondanza maggiore all'interno di questo trattamento, mentre le specie carnivore potrebbero concorrere al decremento del numero medio di Nematodi nei Mitili. Un risultato inatteso della sperimentazione riguarda l'assenza di differenze significative tra trattamenti e controlli, come invece era lecito aspettarsi. Risultati maggiormente significativi sono emersi dall'analisi del confronto tra sedimento privo di detrito e sedimento contenente Ulva provenienti dal contesto naturale. Relativamente all'area esterna alla barriera, sono stati confrontati sedimento privo di detrito e quello sottostante l'Ulva, nelle condizioni sperimentali e naturali. Globalmente notiamo che all'esterno della barriera gli indici univariati, le densità totali di meiofauna, di Nematodi e il numero di taxa, si comportano in maniera analoga nelle condizioni sperimentali e naturali, riportando valori medi maggiori nei campioni prelevati sotto l'Ulva, rispetto a quelli del sedimento privo di detrito. Differente appare invece l'andamento delle variabili e degli indici suddetti riguardanti i campioni prelevati nell'area racchiusa all'interno della barriera, dove invece i valori medi maggiori si rilevano nei campioni prelevati nel sedimento privo di detrito. Tali risultati possono essere spiegati dall'alterazione dell'idrodinamismo esercitato dalla barriera, il quale provoca maggiori tempi di residenza del detrito con conseguente arricchimento di materia organica nell'area interna alla barriera. Le comunità dei sedimenti di quest'area saranno quindi adattate a tale condizioni, ma la deposizione di Ulva in un contesto simile può aggravare la situazione comportando la riduzione delle abbondanze medie dei Nematodi e degli altri organismi meiobentonici sopracitata. Per quel che riguarda i size spectra la tecnica che illustra i risultati in maniera più evidente è quella dei Nematode Biomass Spectra. I risultati statistici fornitici dai campioni dell'esperimento, non evidenziano effetti significativi dei trattamenti, ma a livello visivo, l'osservazione dei grafici evidenzia valori medi di biomassa maggiori nei Nematodi rilevati sui Mitili rispetto a quelli rilevati su Ulva. Differenze significative si rilevano invece a livello dei tempi: a 21 giorni dall'allestimento dell'esperimento infatti, le biomasse dei Nematodi misurati sono più elevate. Relativamente invece ai size spectra costruiti per l'ambiente naturale, mostrano andamento e forma completamente diversi e con differenze significative tra l'interno e l'esterno della barriera; sembra infatti che la biomassa nella zona interna sia inibita, portando a densità maggiori di Nematodi, ma di dimensioni minori. All'esterno della barriera troviamo invece una situazione differente tra i due substrati. Nel sedimento prelevato sotto l'Ulva sembra infatti che siano prevalenti le classi dimensionali maggiori, probabilmente a causa del fatto che l'Ulva tende a soffocare le specie detritivore, permettendo la sopravvivenza delle specie più grosse, composte da predatori poco specializzati, i quali si cibano degli organismi presenti sull'Ulva stessa. Nel sedimento privo di detrito, invece, la distribuzione all'interno delle classi segue un andamento completamente diverso, mostrando una forma del size spectra più regolare. In base a questo si può ipotizzare che la risposta a questo andamento sia da relazionarsi alla capacità di movimento dei Nematodi: a causa della loro conformazione muscolare i Nematodi interstiziali di dimensioni minori sono facilitati nel movimento in un substrato con spazi interstiziali ridotti, come sono nel sedimento sabbioso, invece Nematodi di dimensioni maggiori sono più facilitati in sedimenti con spazi interstiziali maggiori, come l'Ulva. Globalmente si evidenzia una risposta della comunità  bentonica all'incremento di detrito proveniente dalla struttura rigida artificiale, ma la risposta dipende dal tipo di detrito e dai tempi di residenza del detrito stesso, a loro volta influenzati dal livello di alterazione del regime idrodinamico che la struttura comporta. Si evince inoltre come dal punto di vista metodologico, le analisi univariate, multivariate e dei size spectra riescano a porre l'accento su diverse caratteristiche strutturali e funzionali della comunità. Rimane comunque il fatto che nonostante la comunità scientifica stia studiando metodiche "taxonomic free" emerge che, se da un lato queste possono risultare utili, dall'altro, per meglio comprendere l'evoluzione di comunità, è necessaria un'analisi più specifica che punti all'identificazione almeno delle principali famiglie. E'importante infine considerare che l'effetto riscontrato in questo studio potrebbe diventare particolarmente significativo nel momento in cui venisse esteso alle centinaia di km di strutture artificiali che caratterizzano ormai la maggior parte delle coste, la cui gestione dovrebbe tenere conto non soltanto delle esigenze economico-turistiche, e non dovrebbe prescindere dalla conoscenza del contesto ambientale in cui si inseriscono, in quanto, affiancati a conseguenze generali di tali costruzioni, si incontrano molti effetti sitospecifici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I policlorobifenili (PCB) sono inquinanti tossici e fortemente recalcitranti che contaminano suoli e sedimenti di acqua dolce e marini. Le tecnologie attualmente impiegate per la loro rimozione (dragaggio e trattamento chimoco-fisico o conferimento in discarica) sono molto costose, poco efficaci o ad alto impatto ambientale. L’individuazione di strategie alternative, di natura biologica, consentirebbe lo sviluppo di un processo alternativo più sostenibile. Nel processo di declorurazione riduttiva i congeneri di PCB a più alto grado di clorurazione, che sono i più tossici, recalcitranti e maggiormente tendenti al bioaccumulo, vengono utilizzati da alcuni microrganismi anaerobici come accettori finali di elettroni nella catena respiratoria e bioconvertiti in congeneri a minor grado di clorurazione, meno pericolosi, che possono essere mineralizzati da parte di batteri aerobi. La declorurazione riduttiva dei PCB è stata spesso studiata in colture anaerobiche di arricchimento in terreno minerale ottenute a partire da sedimenti di acqua dolce; questi studi hanno permesso di dimostrare che batteri del phylum dei Chloroflexi e appartenenti al genere Dehalococcoides o filogeneticamente facenti parte del gruppo dei Dehalococcoides-like sono i decloruranti. Sono tuttavia scarse le informazioni riguardanti l'occorrenza della declorurazione dei PCB in ambienti marini, nei quali l'alta salinità e concentrazione di solfati influenzano diversamente l'evoluzione delle popolazioni microbiche. In sedimenti contaminati della laguna di Venezia è stata osservata declorurazione sia dei PCB preesistenti che di congeneri esogeni; questi studi hanno permesso l'ottenimento di colture di arricchimento fortemente attive nei confronti di 5 congeneri di PCB coplanari. In questa tesi, a partire dalle colture capaci di declorurare i PCB coplanari, sono stati allestiti nuovi passaggi di arricchimento su Aroclor®1254, una miscela di PCB più complessa e che meglio rappresenta la contaminazione ambientale. Le colture sono state allestite come microcosmi anaerobici in fase slurry, preparati risospendendo il sedimento nell'acqua superficiale, ricreando in tal modo in laboratorio le stesse condizioni biogeochimiche presenti in situ; gli slurry sterili sono stati inoculati per avviare le colture. Per favorire la crescita dei microrganismi decloruranti e stimolare così la decloruraazione dei PCB sono stati aggiunti inibitori selettivi di metanogeni (Bromoetansulfonato o BES) e solfato-riduttori (molibdato), sono state fornite fonti di carbonio ed energia (eD), quali acidi grassi a corta catena e idrogeno, utilizzate di batteri decloruranti noti, e per semplificare la comunità microbica sono stati aggiunti antibiotici cui batteri decloruranti del genere Dehalococcoides sono resistenti. Con questo approccio sono stati allestiti passaggi di arricchimento successivi e le popolazioni microbiche delle colture sono state caratterizzate con analisi molecolari di fingerprinting (DGGE). Fin dal primo passaggio di arricchimento nei microcosmi non ammendati ha avuto luogo un'estesa declorurazione dell'Aroclor®1254; nei successivi passaggi si è notato un incremento della velocità del processo e la scomparsa della fase di latenza, mentre la stessa stereoselettività è stata mantenuta a riprova dell’arricchimento degli stessi microrganismi decloruranti. Le velocità di declorurazione ottenute sono molto alte se confrontate con quelle osservate in colture anaerobiche addizionate della stessa miscela descritte in letteratura. L'aggiunta di BES o molibdato ha bloccato la declorurazione dei PCB ma in presenza di BES è stata riscontrata attività dealogenante nei confronti di questa molecola. La supplementazione di fonti di energia e di carbonio ha stimolato la metanogenesi e i processi fermentativi ma non ha avuto effetti sulla declorurazione. Ampicillina e vancomicina hanno incrementato la velocità di declorurazione quando aggiunte singolarmente, insieme o in combinazione con eD. E' stato però anche dimostrato che la declorurazione dei PCB è indipendente sia dalla metanogenesi che dalla solfato-riduzione. Queste attività respiratorie hanno avuto velocità ed estensioni diverse in presenza della medesima attività declorurante; in particolare la metanogenesi è stata rilevata solo in dipendenza dall’aggiunta di eD alle colture e la solfato-riduzione è stata inibita dall’ampicillina in microcosmi nei quali un’estesa declorurazione dei PCB è stata osservata. La caratterizzazione delle popolazioni microbiche, condotte mediante analisi molecolari di fingerprinting (DGGE) hanno permesso di descrivere le popolazioni batteriche delle diverse colture come complesse comunità microbiche e di rilevare in tutte le colture decloruranti la presenza di una banda che l’analisi filogenetica ha ascritto al batterio m-1, un noto batterio declorurante in grado di dealogenare un congenere di PCB in colture di arricchimento ottenute da sedimenti marini appartenente al gruppo dei Dehalococcoides-like. Per verificare se la crescita di questo microrganismo sia legata alla presenza dei PCB, l'ultimo passaggio di arricchimento ha previsto l’allestimento di microcosmi addizionati di Aroclor®1254 e altri analoghi privi di PCB. Il batterio m-1 è stato rilevato in tutti i microcosmi addizionati di PCB ma non è mai stato rilevato in quelli in cui i PCB non erano presenti; la presenza di nessun altro batterio né alcun archebatterio è subordinata all’aggiunta dei PCB. E in questo modo stato dimostrato che la presenza di m-1 è dipendente dai PCB e si ritiene quindi che m-1 sia il declorurante in grado di crescere utilizzando i PCB come accettori di elettroni nella catena respiratoria anche in condizioni biogeochimiche tipiche degli habitat marini. In tutte le colture dell'ultimo passaggio di arricchimento è stata anche condotta una reazione di PCR mirata alla rilevazione di geni per dealogenasi riduttive, l’enzima chiave coinvolto nei processi di dealogenazione. E’ stato ottenuto un amplicone di lughezza analoga a quelle di tutte le dealogenasi note in tutte le colture decloruranti ma un tale amplificato non è mai stato ottenuto da colture non addizionate di PCB. La dealogenasi ha lo stesso comportamento di m-1, essendo stata trovata come questo sempre e solo in presenza di PCB e di declorurazione riduttiva. La sequenza di questa dealogenasi è diversa da tutte quelle note sia in termini di sequenza nucleotidica che aminoacidica, pur presentando due ORF con le stesse caratteristiche e domini presenti nelle dealogenasi note. Poiché la presenza della dealogenasi rilevata nelle colture dipende esclusivamente dall’aggiunta di PCB e dall’osservazione della declorurazione riduttiva e considerato che gran parte delle differenze genetiche è concentrata nella parte di sequenza che si pensa determini la specificità di substrato, si ritiene che la dealogenasi identificata sia specifica per i PCB. La ricerca è stata condotta in microcosmi che hanno ricreato fedelmente le condizioni biogeochimiche presenti in situ e ha quindi permesso di rendere conto del reale potenziale declorurante della microflora indigena dei sedimenti della laguna di Venezia. Le analisi molecolari condotte hanno permesso di identificare per la prima volta un batterio responsabile della declorurazione dei PCB in sedimenti marini (il batterio m-1) e una nuova dealogenasi specifica per PCB. L'identificazione del microrganismo declorurante permette di aprire la strada allo sviluppo di tecnologie di bioremediation mirata e il gene della dealogenasi potrà essere utilizzato come marker molecolare per determinare il reale potenziale di declorurazione di miscele complesse di PCB in sedimenti marini.