1000 resultados para Darwin evoluzione teoria dei giochi Nowak biologia matematica selezione naturale
Resumo:
A preocupação com o ensino da Evolução não é recente. Diversos pesquisadores fazem apontamentos de como é frequente nos livros de didáticos de biologia adotados no Brasil, a abordagem do tema como uma teoria acabada concluída e, desprovida de contextualização histórica para compreensão por parte dos alunos de como os conceitos foram desenvolvidos ao longo do tempo. Os pesquisadores relatam que a maior dificuldade dos alunos em compreender os conceitos ou a teoria da evolução está nos recorrentes equívocos conceituais e históricos presentes nos livros didáticos. Portanto, o presente trabalho tem por objetivo elaborar uma revisão bibliográfica, do que os teóricos especialistas na área do ensino de ciências têm apresentado sobre a Teoria da Evolução e o Ensino de Evolucionismo e qual tem sido a abordagem nos livros didáticos para o ensino público. A pesquisa constitui-se de análise bibliográfica, desenvolvida com base em material já elaborado, consultas em fontes bibliográficas do tipo: livros de leitura corrente de divulgação e publicações periódicas. Sendo a análise desse material de cunho qualitativo. A primeira etapa consistiu da escolha do tema e um levantamento preliminar do assunto. As etapas seguintes foram: o levantamento bibliográfico, a partir da problematização estabelecida, busca das fontes, leitura e fichamento do material. Para o fichamento dos livros didáticos o método utilizado foi fazê-lo em forma de registros. Foram feitos registros de seis coleções aprovadas PNDL de 2012: Bio. Lopes; Rosso, 2010. Biologia para a nova geração. Mendonça; Laurence, 2010. Biologia. Amabis; Martho, 2010. Biologia Hoje. Linhares; Gewandsnajder, 2010. Novas Bases da Biologia. Bizzo, 2010. Ser Protagonista Biologia. Santos; Aguilar; Oliveira, 2010. A partir desses registros foram feitos quadros comparativos... (Resumo completo, clicar acesso eletrônico abaixo)
Resumo:
By establishing a relationship among several sections of Biology, the theory of the evolution enables a more systemized and less fragmented education of this science. However, students seem to have difficulties of understanding the concept of biological evolution, by virtue of misunderstanding conceptual and historical data present in textbooks, among other causes. One of these mentioned distortions is the shock between Lamarck and Darwin’s ideas. We aimed, in this work, to investigate the understanding of Biology’s students in pre-service teachers education concerning the Lamarck and Darwin’s theories at different moments of the Evolution discipline. For this, some steps had been followed: 1) Verification of the previous conceptions; 2) Elaboration of a pedagogical material, containing diverse historical texts of primary and secondary sources; 3) Debates in two didactic modules, using the pedagogical material elaborated; 4) Analysis of the conceptions constructed by the students, from the didactic intervention. The results obtained show the preconceptions of the students interviewed, concerning the Lamarck and Darwin’s theories, resemble the explanations presented in textbooks and the insertion of historical texts in the Evolution lessons can be an interesting strategy to construction of knowledge of this theme
Resumo:
La ricerca presentata è un’ampia esplorazione delle possibili applicazioni di concetti, metodi e procedure della Fuzzy Logic all’Ingegneria dei Materiali. Tale nuovo approccio è giustificato dalla inadeguatezza dei risultati conseguiti con i soli metodi tradizionali riguardo alla reologia ed alla durabilità, all’utilizzo di dati di laboratorio nella progettazione e alla necessità di usare un linguaggio (informatizzabile) che consenta una valutazione congiunta degli aspetti tecnici, culturali, economici, paesaggistici della progettazione. – In particolare, la Fuzzy Logic permette di affrontare in modo razionale l’aleatorietà delle variabili e dei dati che, nel settore specifico dei materiali in opera nel costruito dei Beni Culturali, non possono essere trattati con i metodi statistici ordinari. – La scelta di concentrare l’attenzione su materiali e strutture in opera in siti archeologici discende non solo dall’interesse culturale ed economico connesso ai sempre più numerosi interventi in questo nuovo settore di pertinenza dell’Ingegneria dei Materiali, ma anche dal fatto che, in tali contesti, i termini della rappresentatività dei campionamenti, della complessità delle interazioni tra le variabili (fisiche e non), del tempo e quindi della durabilità sono evidenti ed esasperati. – Nell’ambito di questa ricerca si è anche condotto un ampio lavoro sperimentale di laboratorio per l’acquisizione dei dati utilizzati nelle procedure di modellazione fuzzy (fuzzy modeling). In tali situazioni si è operato secondo protocolli sperimentali standard: acquisizione della composizione mineralogica tramite diffrazione di raggi X (XRD), definizione della tessitura microstrutturale con osservazioni microscopiche (OM, SEM) e porosimetria tramite intrusione forzata di mercurio (MIP), determinazioni fisiche quali la velocità di propagazione degli ultrasuoni e rotoviscosimetria, misure tecnologiche di resistenza meccanica a compressione uniassiale, lavorabilità, ecc. – Nell’elaborazione dei dati e nella modellazione in termini fuzzy, la ricerca è articolata su tre livelli: a. quello dei singoli fenomeni chimico-fisici, di natura complessa, che non hanno trovato, a tutt’oggi, una trattazione soddisfacente e di generale consenso; le applicazioni riguardano la reologia delle dispersioni ad alto tenore di solido in acqua (calci, cementi, malte, calcestruzzi SCC), la correlazione della resistenza a compressione, la gelività dei materiali porosi ed alcuni aspetti della durabilità del calcestruzzo armato; b. quello della modellazione della durabilità dei materiali alla scala del sito archeologico; le applicazioni presentate riguardano i centri di cultura nuragica di Su Monte-Sorradile, GennaMaria-Villanovaforru e Is Paras-Isili; c. quello della scelta strategica costituita dalla selezione del miglior progetto di conservazione considerando gli aspetti connessi all’Ingegneria dei Materiali congiuntamente a quelli culturali, paesaggistici ed economici; le applicazioni hanno riguardato due importanti monumenti (Anfiteatro e Terme a Mare) del sito Romano di Nora-Pula.
Resumo:
Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà indagare l'incidenza di tale variabile quando il "fattore OGM" sarà prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.
Resumo:
I policlorobifenili (PCB) sono inquinanti tossici e fortemente recalcitranti che contaminano suoli e sedimenti di acqua dolce e marini. Le tecnologie attualmente impiegate per la loro rimozione (dragaggio e trattamento chimoco-fisico o conferimento in discarica) sono molto costose, poco efficaci o ad alto impatto ambientale. L’individuazione di strategie alternative, di natura biologica, consentirebbe lo sviluppo di un processo alternativo più sostenibile. Nel processo di declorurazione riduttiva i congeneri di PCB a più alto grado di clorurazione, che sono i più tossici, recalcitranti e maggiormente tendenti al bioaccumulo, vengono utilizzati da alcuni microrganismi anaerobici come accettori finali di elettroni nella catena respiratoria e bioconvertiti in congeneri a minor grado di clorurazione, meno pericolosi, che possono essere mineralizzati da parte di batteri aerobi. La declorurazione riduttiva dei PCB è stata spesso studiata in colture anaerobiche di arricchimento in terreno minerale ottenute a partire da sedimenti di acqua dolce; questi studi hanno permesso di dimostrare che batteri del phylum dei Chloroflexi e appartenenti al genere Dehalococcoides o filogeneticamente facenti parte del gruppo dei Dehalococcoides-like sono i decloruranti. Sono tuttavia scarse le informazioni riguardanti l'occorrenza della declorurazione dei PCB in ambienti marini, nei quali l'alta salinità e concentrazione di solfati influenzano diversamente l'evoluzione delle popolazioni microbiche. In sedimenti contaminati della laguna di Venezia è stata osservata declorurazione sia dei PCB preesistenti che di congeneri esogeni; questi studi hanno permesso l'ottenimento di colture di arricchimento fortemente attive nei confronti di 5 congeneri di PCB coplanari. In questa tesi, a partire dalle colture capaci di declorurare i PCB coplanari, sono stati allestiti nuovi passaggi di arricchimento su Aroclor®1254, una miscela di PCB più complessa e che meglio rappresenta la contaminazione ambientale. Le colture sono state allestite come microcosmi anaerobici in fase slurry, preparati risospendendo il sedimento nell'acqua superficiale, ricreando in tal modo in laboratorio le stesse condizioni biogeochimiche presenti in situ; gli slurry sterili sono stati inoculati per avviare le colture. Per favorire la crescita dei microrganismi decloruranti e stimolare così la decloruraazione dei PCB sono stati aggiunti inibitori selettivi di metanogeni (Bromoetansulfonato o BES) e solfato-riduttori (molibdato), sono state fornite fonti di carbonio ed energia (eD), quali acidi grassi a corta catena e idrogeno, utilizzate di batteri decloruranti noti, e per semplificare la comunità microbica sono stati aggiunti antibiotici cui batteri decloruranti del genere Dehalococcoides sono resistenti. Con questo approccio sono stati allestiti passaggi di arricchimento successivi e le popolazioni microbiche delle colture sono state caratterizzate con analisi molecolari di fingerprinting (DGGE). Fin dal primo passaggio di arricchimento nei microcosmi non ammendati ha avuto luogo un'estesa declorurazione dell'Aroclor®1254; nei successivi passaggi si è notato un incremento della velocità del processo e la scomparsa della fase di latenza, mentre la stessa stereoselettività è stata mantenuta a riprova dell’arricchimento degli stessi microrganismi decloruranti. Le velocità di declorurazione ottenute sono molto alte se confrontate con quelle osservate in colture anaerobiche addizionate della stessa miscela descritte in letteratura. L'aggiunta di BES o molibdato ha bloccato la declorurazione dei PCB ma in presenza di BES è stata riscontrata attività dealogenante nei confronti di questa molecola. La supplementazione di fonti di energia e di carbonio ha stimolato la metanogenesi e i processi fermentativi ma non ha avuto effetti sulla declorurazione. Ampicillina e vancomicina hanno incrementato la velocità di declorurazione quando aggiunte singolarmente, insieme o in combinazione con eD. E' stato però anche dimostrato che la declorurazione dei PCB è indipendente sia dalla metanogenesi che dalla solfato-riduzione. Queste attività respiratorie hanno avuto velocità ed estensioni diverse in presenza della medesima attività declorurante; in particolare la metanogenesi è stata rilevata solo in dipendenza dall’aggiunta di eD alle colture e la solfato-riduzione è stata inibita dall’ampicillina in microcosmi nei quali un’estesa declorurazione dei PCB è stata osservata. La caratterizzazione delle popolazioni microbiche, condotte mediante analisi molecolari di fingerprinting (DGGE) hanno permesso di descrivere le popolazioni batteriche delle diverse colture come complesse comunità microbiche e di rilevare in tutte le colture decloruranti la presenza di una banda che l’analisi filogenetica ha ascritto al batterio m-1, un noto batterio declorurante in grado di dealogenare un congenere di PCB in colture di arricchimento ottenute da sedimenti marini appartenente al gruppo dei Dehalococcoides-like. Per verificare se la crescita di questo microrganismo sia legata alla presenza dei PCB, l'ultimo passaggio di arricchimento ha previsto l’allestimento di microcosmi addizionati di Aroclor®1254 e altri analoghi privi di PCB. Il batterio m-1 è stato rilevato in tutti i microcosmi addizionati di PCB ma non è mai stato rilevato in quelli in cui i PCB non erano presenti; la presenza di nessun altro batterio né alcun archebatterio è subordinata all’aggiunta dei PCB. E in questo modo stato dimostrato che la presenza di m-1 è dipendente dai PCB e si ritiene quindi che m-1 sia il declorurante in grado di crescere utilizzando i PCB come accettori di elettroni nella catena respiratoria anche in condizioni biogeochimiche tipiche degli habitat marini. In tutte le colture dell'ultimo passaggio di arricchimento è stata anche condotta una reazione di PCR mirata alla rilevazione di geni per dealogenasi riduttive, l’enzima chiave coinvolto nei processi di dealogenazione. E’ stato ottenuto un amplicone di lughezza analoga a quelle di tutte le dealogenasi note in tutte le colture decloruranti ma un tale amplificato non è mai stato ottenuto da colture non addizionate di PCB. La dealogenasi ha lo stesso comportamento di m-1, essendo stata trovata come questo sempre e solo in presenza di PCB e di declorurazione riduttiva. La sequenza di questa dealogenasi è diversa da tutte quelle note sia in termini di sequenza nucleotidica che aminoacidica, pur presentando due ORF con le stesse caratteristiche e domini presenti nelle dealogenasi note. Poiché la presenza della dealogenasi rilevata nelle colture dipende esclusivamente dall’aggiunta di PCB e dall’osservazione della declorurazione riduttiva e considerato che gran parte delle differenze genetiche è concentrata nella parte di sequenza che si pensa determini la specificità di substrato, si ritiene che la dealogenasi identificata sia specifica per i PCB. La ricerca è stata condotta in microcosmi che hanno ricreato fedelmente le condizioni biogeochimiche presenti in situ e ha quindi permesso di rendere conto del reale potenziale declorurante della microflora indigena dei sedimenti della laguna di Venezia. Le analisi molecolari condotte hanno permesso di identificare per la prima volta un batterio responsabile della declorurazione dei PCB in sedimenti marini (il batterio m-1) e una nuova dealogenasi specifica per PCB. L'identificazione del microrganismo declorurante permette di aprire la strada allo sviluppo di tecnologie di bioremediation mirata e il gene della dealogenasi potrà essere utilizzato come marker molecolare per determinare il reale potenziale di declorurazione di miscele complesse di PCB in sedimenti marini.
Resumo:
Through this research I have tried to demonstrate how the evolution of the newest marketing strategies - that work towards engaging relationships with consumers, thus building an emotional connection between the brand and the user- can be considered as a response to the evolution of young audiences and consumers. More specifically, I have analized product placement as a cultural and social phenomena above all, and not only as an economical one, thus demonstrating all the social and cultural practices that this tool implies. The approach I have chosen to do so, is historical-analytical, particularly focusing on the evolution of the society and of the consumer, especially for what teenagers (both as audiences and as consumers) are concerned.
Resumo:
Scopo della tesi è studiare la co-evoluzione nei mercati finanziari tra agenti eterogenei, analizzare l’andamento dei prezzi delle azioni e la ricchezza individuale di ciascun agente dopo un periodo di tempo non specificato. Il mercato finanziario è costituito da un numero arbitrario di agenti eterogenei che investono sui titoli parte della loro ricchezza adottando strategie che vadano ad ottimizzare il ritorno economico dopo ogni periodo di tempo. Consideriamo un sistema dinamico con uno scheletro deterministico. Il sistema che descrive questo modello è un sistema di equazioni non lineari e studiamo le condizioni di stabilità per ciascun stato di equilibrio. Consideriamo in particolare due tipologie di agenti; Il primo, cosiddetto cartista ed il secondo, cosiddetto fondamentalista. Ci riferiamo poi alla teoria delle biforcazioni, cioè allo studio del cambio di stabilità del sistema rispetto ad un parametro. Chi tra i due agenti avrà la meglio?? A quali condizioni sopravviverà l’uno o l’altro?
Resumo:
Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Con la prima parte, si intende fornire un quadro pressoché esaustivo delle principali disposizioni in materia di società a partecipazione pubblica regionale e locale operanti nel campo dei servizi pubblici locali e della loro interpretazione giurisprudenziale e dottrinale, prendendo le mosse dagli ultimi interventi legislativo. Nella seconda parte, si affronta, invece, il tema dei limiti legislativi alla capacità di azione delle società a partecipazione pubblica e dei connessi dubbi interpretativi, anche alla luce degli orientamenti giurisprudenziali e dottrinali. In particolare, l’analisi riguarda l’art. 13 del decreto”Bersani” e il comma 9 dell’art. 23 bis (ora pedissequamente trasfuso nel comma 33 dell’art. 4 del d.l. n. 138/2011), ossia le principali disposizioni che definiscono, rispettivamente, la capacità di azione delle società (a partecipazione pubblica) strumentali e di quelle operanti nel campo dei servizi pubblici locali titolari di affidamenti diretti (assentiti con modalità diverse dall’evidenza pubblica). Vengono forniti cenni di inquadramento in relazione al cd. procedimento di riordino delle partecipazioni societarie pubbliche previsto dalla legge finanziaria del 2008 (art. 3, commi 27 – 32). Dal combinato disposto delle suddette norme, così come interpretate dalla giurisprudenza costituzionale ed amministrativa, si ricavano, poi, utili indicazioni in ordine alla possibilità, per gli enti pubblici territoriali, di costituire società con scopo meramente lucrativo (ossia, soggetti societari privi del rapporto di strumentalità con gli enti costituenti o partecipanti, chiamati ad operare, in regime di concorrenza, in settori completamente liberalizzati) e società cd. multiutilities (aventi oggetto sociale complesso, la cui attività si estrinseca tanto nel campo dei servizi strumentali, quanto in quello dei servizi pubblici locali), nonché in relazione alla disciplina applicabile all’attività di detti soggetti societari. La finalità ultima del contributo consiste nell'individuazione delle linee guida finalizzate alla classificazione delle società pubbliche in funzione della loro attività.