263 resultados para moderni eurooppolainen sivilisaatio
Resumo:
La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.
Applicazioni mobili in ambito turistico: stato dell'arte, tassonomia e valutazione di casi di studio
Resumo:
Il turismo è un prodotto legato all’esperienza dell’utente, poiché il viaggio può essere definito come la totalità delle esperienze vissute. Inoltre, al contrario dei beni tangibili, che solitamente richiedono al più una singola decisione, il turismo è un sistema di consumo nel quale gli utenti sono continuamente coinvolti nel processo decisionale. Le nuove tecnologie possono intensificare l’esperienza del turista, non solo rendendo le prenotazioni più semplici o rimpiazzando una guida cartacea con una multimediale, ma anche permettendo agli utenti di immergersi in siti remoti ed inaccessibili, oltre alla semplice esperienza multimediale. L’informazione è comunemente riconosciuta come attributo fondamentale del turismo, per questo motivo l’innovazione attraverso l’ICT ha un impatto diretto che può essere riscontrato in tutto il processo di produzione del turismo. I turisti dipendono dalle informazioni rintracciabili sulle destinazioni. Queste informazioni li aiutano a prendere decisioni riguardanti il proprio viaggio, poiché i servizi turistici in genere non possono essere “provati” prima di effettuarli in maniera vera e propria. Per questo i nuovi dispositivi mobili come smartphone e tablet sono diventati importanti piattaforme digitali che permettono l’interazione tra fornitori di servizi e turisti e tra turisti ed altri turisti. I viaggiatori cercano costantemente informazioni per ridurre il grado di incertezza e supportare il processo decisionale. Gli smartphone, che per loro natura non sono legati ad una posizione fissa, hanno un grande potenziale nell’assistere i viaggiatori nella loro fase di ricerca delle informazioni. In questa tesi si cerca di fornire una rassegna dello stato dell’arte per quel che riguarda le applicazioni mobili legate al turismo, attraverso una classificazione tassonomica divisa per servizi e funzionalità. Vengono inoltre analizzate le tecnologie abilitanti presenti nei moderni dispositivi. Nella seconda parte si analizzerà il caso di studio relativo alle app principali delle Capitali dell’UE, mettendo in relazione i dati delle affluenze turistiche ed i download.
Resumo:
Questa tesi di laurea nasce dall’esperienza maturata presso l’azienda FCA Italy (Fiat Chrysler Automobiles S.p.A., ex VM Motori) nello stabilimento situato a Cento in provincia di Ferrara, in particolare all’interno dell’ufficio di Ricerca Avanzata CRM (Centro Ricerca Motori), divisione del reparto R&D (Research and Development). Tale esperienza viene riassunta (in piccola parte) in questo elaborato di Tesi, che tratta tematiche inerenti allo sviluppo di un sistema di sovralimentazione assistito elettricamente, applicato ad un propulsore Diesel 3.0L V6 destinato ai segmenti “Premium” del mercato. Il sistema utilizzato, che ha come componente principale un compressore attuato da una macchina elettrica, appartiene all’insieme delle tecnologie cosiddette di e-boosting. Questo tipo di tecnologia, fortemente innovativa e ad oggi non ancora presente sul mercato, ha le potenzialità per rappresentare un significativo passo avanti nel processo di riduzione delle emissioni, dei consumi e del miglioramento delle performance dei moderni motori endotermici alternativi, al punto che un numero crescente di costruttori di motori sta oggi studiando soluzioni come quella oggetto di questo elaborato. L’obiettivo è stato quindi quello di definire, applicare e gestire il sistema di e-boost a banco motore e, successivamente, caratterizzarlo dal punto di vista energetico e testarne le effettive potenzialità. Le fasi in cui ho apportato il mio contributo sono state, in particolare, quelle di definizione e integrazione dei nuovi componenti all’interno del layout motore preesistente, di realizzazione e implementazione delle strategie di controllo in un sistema dedicato in grado di gestire efficacemente i componenti, e di sperimentazione al banco prova. I risultati conseguiti al termine dell’attività sono quindi inerenti allo sviluppo e validazione del sistema di controllo, alla valutazione delle performance del propulsore risultante e alla caratterizzazione e analisi critica del sistema di e-boost dal punto di vista energetico.
Resumo:
Il grande sviluppo a cui stiamo assistendo negli ultimi anni nell'ambito delle tecnologie mobile e del wearable computing apre le porte a scenari innovativi e interessanti per quanto riguarda sistemi distribuiti collaborativi. Le persone possono sempre più facilmente cooperare e scambiarsi informazioni grazie a queste nuove tecnologie e si può pensare allo sviluppo di sistemi che permettano forme molto avanzate di collaborazione facendo leva sull'aspetto hands-free, ovvero sulla possibilità di utilizzare dispositivi che liberino le mani, come i moderni smart-glasses. Per lo sviluppo di tali sistemi è necessario però studiare nuove tecniche e architetture, in quanto gli strumenti ad oggi a disposizione a supporto della realtà aumentata non sembrano essere del tutto adeguati per tale scopo. Infatti piattaforme come Wikitude o Layar, seppure offrano potenti tecniche di riconoscimento di markers e immagini e di rendering, non offrono quella dinamicità fondamentale per un sistema distribuito collaborativo. Questo scritto ha lo scopo di esplorare questi aspetti mediante l'ideazione, l'analisi, la progettazione e la prototipazione di un semplice caso di studio ispirato a sistemi collaborativi distribuiti basati su realtà aumentata. In particolare in questo lavoro si porrà l'attenzione sul livello delle comunicazioni e delle infrastrutture di rete.
Resumo:
La presente tesi analizza le principali caratteristiche di due tipi di traduzione: la traduzione audiovisiva, e in particolare il sottotitolaggio, e la traduzione automatica (TA). Obiettivo della nostra ricerca è stabilire quali risultati è possibile aspettarsi dall’impiego di sistemi di traduzione automatica appositamente sviluppati, nella creazione di sottotitoli di qualità professionale. Tale metodo avrebbe il potenziale vantaggio di velocizzare il processo traduttivo, riducendo in parte la pressione cui i sottotitolatori sono sottoposti, dovendo realizzare molte traduzioni in tempi troppo brevi, spesso a scapito della qualità finale del prodotto. Nel presente lavoro, il Capitolo 1 delinea le tappe principali della nascita e dello sviluppo della traduzione automatica, fino ad arrivare ai sistemi di TA più moderni. Nel Capitolo 2 vengono presentati i tipi principali di sistemi di traduzione automatica, con riferimento alle loro potenzialità e alle loro debolezze, soprattutto per quanto riguarda il loro impiego nel settore multimediale. Il Capitolo 3 riguarda la storia del sottotitolaggio, e le condizioni che hanno portato allo sviluppo e alla diffusione delle diverse modalità di traduzione audiovisiva, di cui il sottotitolaggio è una variante. Nel Capitolo 4 descriveremo le fasi principali di questo processo traduttivo, con particolare enfasi sull’importanza del contesto di arrivo e delle esigenze e aspettative dei futuri fruitori del testo finale. I Capitoli 5 e 6 presentano il lavoro di ricerca “sul campo”, svolto per raccogliere il parere di sottotitolatori professionisti e fansubber, attivi in Italia e all’estero, riguardo la possibilità di usare la TA nel loro lavoro. Infine, il capitolo conclusivo fornisce un commento sui risultati ottenuti, e sulle prospettive future riguardo la possibile apertura da parte del sottotitolaggio verso questa nuova tecnologia.
Resumo:
La capacità della spettroscopia di assorbimento di riuscire a determinare la struttura locale di campioni di ogni tipo e concentrazione, dagli elementi puri ai più moderni materiali nanostrutturati, rende lo studio dei meccanismi di incorporazione di droganti in matrici di semiconduttori il campo che meglio ne esprime tutto il potenziale. Inoltre la possibilità di ottenere informazioni sulla struttura locale di un particolare elemento in traccia posto in sistemi senza ordine a lungo raggio risulta, ovviamente, nello studio dei semiconduttori di grandissimo interesse. Tuttavia, la complessità di determinate strutture, generate dalla incorporazione di elementi eterovalenti che ne modificano la simmetria, può far si che all’analisi sperimentale si debbano affiancare dei metodi avanzati ab-initio. Questi approcci garantiscono, attraverso la simulazione o di strutture atomiche o dello stesso spettro XAS, di ottenere una più completa e precisa interpretazione dei dati sperimentali. Nella fase preliminare di questo elaborato si illustrerà la fenomenologia della spettroscopia di assorbimento e i fondamenti teorici che stanno alla base dell’analisi della struttura fine di soglia. Si introdurranno contemporaneamente le tecniche sperimentali con cui si realizzano le misure di spettri di assorbimento su una beamline che sfrutta sorgente di radiazione di sincrotrone facendo riferimento agli strumenti montati sulla linea LISA (o BM08) presso l’European Synchrotron Radiation Facility di Grenoble su cui si sono realizzati gli esperimenti di questo lavoro. Successivamente si realizzerà una rassegna di alcuni esperimenti simbolo della analisi della struttura locale di droganti in semiconduttori mediante XAFS, andando ad approfondire i metodi sperimentali associati. Nella parte principale della tesi verranno descritti alcuni tipi di analisi avanzate effettuate su Colloidal Quantum Dots a base di solfuro di piombo drogati con antimonio. Tali sistemi, particolarmente interessanti per potenziali applicazioni in campo optoelettrico, sono stati analizzati mediante misure di fluorescenza ottenute sulla beamline LISA. La fase di analisi ha visto la progettazione di una suite di programmi in C++ per realizzare simulazioni di uno spettro XAS teorico completo basato su strutture ottenute (anche esse) da metodi ab-initio.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
L'obiettivo di questa tesi è quello di fornire le informazioni di base che, un aspirante programmatore Android, deve sapere per scrivere applicazioni che facciano uso dei sensori presenti nei moderni telefoni cellulari (accelerometro, giroscopio, sensore di prossimità, ecc...). La tesi si apre citando qualche aneddoto storico sulla nascita del sistema operativo più famoso al mondo ed elencando tutte le releases ufficiali e le novità che hanno portato dalla 1.0 all'attuale 5.1.1 Lollipop. Verranno analizzate le componenti fondamentali per costruire un applicazione Android: Activities, Services, Content Providers e Broadcast Receivers. Verrà introdotto e approfondito il concetto di sensore, sia punto di vista fisico sia dal punto di vista informatico/logico, evidenziando le tre dimensioni più importanti ovvero struttura, interazione e comportamento. Si analizzeranno tutte i tipi di errori e problematiche reali che potrebbero influire negativamente sui valori delle misurazioni (disturbi, rumori, ecc...) e si propone la moderna soluzione del Sensor Fusion come caso particolare di studio, prendendo spunto dal lavoro di grandi aziende come la Invensense e la Kionix Inc. Infine, si conclude l'elaborato passando dalle parole al codice: verranno affrontate le fasi di analisi e d'implementazione di un'applicazione esemplificativa capace di determinare l'orientamento del dispositivo nello spazio, sfruttando diverse tecniche Sensor Fusion.
Resumo:
La grande crescita e l'enorme distribuzione che hanno avuto negli ultimi tempi i moderni devices mobile (smartphones, tablet, dispositivi wearable, etc...) ha dato l'avvio ad un massiccio sviluppo di applicazioni mobile di qualunque genere, dall'health-care all'AR (Augmented Reality, realtà aumentata), dalle applicazioni social alle applicazioni che offrono servizi all'utente.
Resumo:
Questo lavoro di tesi è incentrato sulla microtomografia con radiazione di sincrotrone, di cui vengono presentate le diverse modalità di acquisizione, mostrandone le potenzialità e mettendola a confronto con la microCT convenzionale. Le principali caratteristiche di un fascio di raggi X prodotto presso sorgenti di radiazione di sincrotrone sono le seguenti: la monocromaticità, che evita l’indurimento del fascio, la forte intensità, che permette una acquisizione dati rapida a risoluzione spaziale molto alta, con conseguente precisa mappatura delle strutture interne del campione, e l’alta coerenza, che porta ad ulteriori possibilità di imaging, come l’acquisizione in contrasto di fase. Grazie a queste caratteristiche la microCT con radiazione di sincrotrone rappresenta attualmente uno strumento di indagine di grande importanza in molteplici campi della ricerca, che vanno dalla scienza dei materiali, alla geologia, dal campo medico fino a quello dei Beni Culturali. In particolare, in questa sede, vengono illustrate e discusse alcune applicazioni in campo medico (mammografia) e in campo paleontologico e paleoantropologico (studio della microstruttura di denti fossili e moderni per ottenere informazioni riguardo il ciclo vitale, l’invecchiamento, la crescita, il processo di dentizione, la dieta, e così via).
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
Il progetto di tesi tratta l'industrializzazione di una famiglia di componenti meccanici con gli obiettivi di riduzione del lead time e dei costi di produzione ed un miglioramento della qualità costruttiva. Per fare ciò è stato definito un nuovo ciclo di fabbricazione che riunisse tutte le operazioni di asportazione di truciolo in un unico centro di lavoro di fresatura. Sono state definite, progettate e messe in atto tutte le fasi del processo produttivo utilizzando i moderni software CAD-CAM-CNC. Al termine sono stati elaborati i risultati ottenuti svolgendo anche una analisi economica per valutare il risparmio percentuale annuo sul costo di produzione. Infine è stato fatto un confronto fra il vecchio ed il nuovo processo produttivo realizzato secondo i principi dell'Industria 4.0 ed i relativi vantaggi che esso permette di ottenere.
Resumo:
In questa tesi, sono esposti i sistemi di navigazione che si sono evoluti, parimenti con il progresso scientifico e tecnologico, dalle prime misurazioni della Terra, per opera della civiltà ellenica, circa 2.500 anni fa, sino ai moderni sistemi satellitari e ai mai tramontati sistemi di radionavigazione. I sistemi di navigazione devono rispondere alla sempre maggiore richiesta di precisione, affidabilità, continuità e globalità del servizio, della società moderna. È sufficiente pensare che, attualmente, il solo traffico aereo civile fa volare 5 miliardi di passeggeri ogni anno, in oltre 60 milioni di voli e con un trasporto cargo di 85 milioni di tonnellate (ACI - World Airports Council International, 2012). La quota di traffico marittimo mondiale delle merci, è stata pari a circa 650 milioni di TEU (twenty-foot equivalent unit - misura standard di volume nel trasporto dei container ISO, corrisponde a circa 40 metri cubi totali), nel solo anno 2013 (IAPH - International Association of Ports and Harbors, 2013). Questi pochi, quanto significativi numeri, indicano una evidente necessità di “guidare” questo enorme flusso di aerei e navi in giro per il mondo, sempre in crescita, nella maniera più opportuna, tracciando le rotte adeguate e garantendo la sicurezza necessaria anche nelle fasi più delicate (decollo e atterraggio per gli aeroplani e manovre in porto per le grandi navi). Nello sviluppo della tesi si proverà a capire quali e quanto i sistemi di navigazione possono assolvere al ruolo di “guida” del trasporto aereo e marittimo.
Resumo:
Partendo dal concetto di 'regionalismo' oppure d' identità regionale nell'interpretazione che ne ha dato Fernand Braudel ci rendiamo conto che il modo di guardare Venezia e l'arte veneziana con una certa ottica si forma a partire del romanticismo. Sono autori quali John Ruskin e Hippolyte Taine che sulla base della teoria del 'milieu' hanno dato inizio a un metodo della storia dell'arte ottocentesca che identifica il carattere del luogo e della sua gente con l'arte che vi viene prodotta. Il concetto teorico che sta alla base di questo modo di interpretare la pittura, deriva però dal Vasari e si riferiva all'opposizione artistica tra Venezia e Firenze, e al loro antagonismo che secondo Vasari vedeva vincitore il disegno. Dopo Vasari questo concetto viene ripreso da altri teorici italiani, ma all'inizio del Settecento il dibattito si sposta in Francia dove de Piles sulla scia del 'debat des anciens et modernes' dando la palma a Rubens invece di Poussin, prende la parte del colore. Grazie alla diffusione del nuovo gusto per il colore che si diffonde dalla Francia per tutta l'Europa, l'arte veneziana acquista una grandissima riputazione dalla quale approfittano soprattutto i pittori moderni veneziani attivi all'estero, durante il Settecento. Davanti questo sfondo viene sottolineata l'importanza di Venezia per il giovane Mengs che deve il suo primo successo al 'ritratto a pastelli', seguendo il gusto del sovrano sassone Augusto III. A causa dell'incarico per il quadro della chiesa cattolica di Dresda il pittore si porta a Venezia dove studia l'Assunta di Tiziano che si rispecchia nel quadro per Dresda. Dall'incontro con l'arte di Tiziano nasce un intenso dialogo teorico con la sua pittura di modo che Tiziano viene incluso da Mengs nella 'trias' dei tre primi pittori della storia della pittura per la perfezione del suo colore. Tale rivalutazione di Tiziano, pubblicata nei suoi scritti, porta alla revisione generale dei pregiudizi accademici verso la scuola veneziana sul livello teorico e pratico. A Venezia è Andrea Memmo, basandosi sui scritti di Mengs, a dare con la sua 'Orazione' davanti l'Accademia nel 1787 una nuova visione quando abbandona la tradizionale gerarchia 'disegno, colore e chiaroscuro' e con essa anche la tradizionale classifica delle scuole. Angelika Kauffmann che ritrae Memmo durante il suo soggiorno veneziano rappresenta forse il tipo di pittura che Memmo intese come ideale ed è una pittura che riunisce le qualità dei grandi maestri del passato facendolo confluire in un gusto universale. Spetterà poi al Lanzi di introdurre l'idea di una nuova pittura di carattere nazionale che si verifica durante l'Ottocento con i 'Macchiaioli' che danno la prevalenza al colore e non al disegno.
Resumo:
En un primer examen de las auctoritates Ockham formula un claro acercamiento al esquema aristotélico-boeciano y a la definición de persona como sustancia en cuanto suppositum intellectualis, definición que encuentra conveniente aplicar tanto a lo creado como a Dios. Comienza luego una discusión más próxima y contemporánea con los moderni, que está centrada, por un lado en Escoto para quien la persona se ha de definir a partir de la relación; y por otro, con santo Tomás de Aquino. “Persona", para el Aquinate, no significa una naturaleza común quidditas, ousía o sustancia segunda, por el contrario, indica al individuo: “esta carne y estos huesos" pero lo significa de un modo vago e indeterminado. Precisamente, éste es el punto que Ockham discute: qué denota esta significación indeterminada; le dedica a la cuestión un amplio análisis que lo conduce a equiparar los conceptos de naturaleza y de persona. En un paso subsiguiente Ockham propone examinar las personas in divinis: no es posible establecer in divinis ninguna diferencia o distinción; si se afirma en Dios la presencia de tres personas y de una sola naturaleza la adhesión se presta por la fe sin que medie un acercamiento racional al tema. El aparato conceptual y metafísico para abordar el problema de la persona en sede divina, ha pasado por la criba de un examen que concluye, para Ockham, en la verdadera imposibilidad de elaborar una teología trinitaria.