867 resultados para Jallinoja, Riitta: Moderni säädyllisyys
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
L'obiettivo di questa tesi è quello di fornire le informazioni di base che, un aspirante programmatore Android, deve sapere per scrivere applicazioni che facciano uso dei sensori presenti nei moderni telefoni cellulari (accelerometro, giroscopio, sensore di prossimità, ecc...). La tesi si apre citando qualche aneddoto storico sulla nascita del sistema operativo più famoso al mondo ed elencando tutte le releases ufficiali e le novità che hanno portato dalla 1.0 all'attuale 5.1.1 Lollipop. Verranno analizzate le componenti fondamentali per costruire un applicazione Android: Activities, Services, Content Providers e Broadcast Receivers. Verrà introdotto e approfondito il concetto di sensore, sia punto di vista fisico sia dal punto di vista informatico/logico, evidenziando le tre dimensioni più importanti ovvero struttura, interazione e comportamento. Si analizzeranno tutte i tipi di errori e problematiche reali che potrebbero influire negativamente sui valori delle misurazioni (disturbi, rumori, ecc...) e si propone la moderna soluzione del Sensor Fusion come caso particolare di studio, prendendo spunto dal lavoro di grandi aziende come la Invensense e la Kionix Inc. Infine, si conclude l'elaborato passando dalle parole al codice: verranno affrontate le fasi di analisi e d'implementazione di un'applicazione esemplificativa capace di determinare l'orientamento del dispositivo nello spazio, sfruttando diverse tecniche Sensor Fusion.
Resumo:
La grande crescita e l'enorme distribuzione che hanno avuto negli ultimi tempi i moderni devices mobile (smartphones, tablet, dispositivi wearable, etc...) ha dato l'avvio ad un massiccio sviluppo di applicazioni mobile di qualunque genere, dall'health-care all'AR (Augmented Reality, realtà aumentata), dalle applicazioni social alle applicazioni che offrono servizi all'utente.
Resumo:
Questo lavoro di tesi è incentrato sulla microtomografia con radiazione di sincrotrone, di cui vengono presentate le diverse modalità di acquisizione, mostrandone le potenzialità e mettendola a confronto con la microCT convenzionale. Le principali caratteristiche di un fascio di raggi X prodotto presso sorgenti di radiazione di sincrotrone sono le seguenti: la monocromaticità, che evita l’indurimento del fascio, la forte intensità, che permette una acquisizione dati rapida a risoluzione spaziale molto alta, con conseguente precisa mappatura delle strutture interne del campione, e l’alta coerenza, che porta ad ulteriori possibilità di imaging, come l’acquisizione in contrasto di fase. Grazie a queste caratteristiche la microCT con radiazione di sincrotrone rappresenta attualmente uno strumento di indagine di grande importanza in molteplici campi della ricerca, che vanno dalla scienza dei materiali, alla geologia, dal campo medico fino a quello dei Beni Culturali. In particolare, in questa sede, vengono illustrate e discusse alcune applicazioni in campo medico (mammografia) e in campo paleontologico e paleoantropologico (studio della microstruttura di denti fossili e moderni per ottenere informazioni riguardo il ciclo vitale, l’invecchiamento, la crescita, il processo di dentizione, la dieta, e così via).
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
Il progetto di tesi tratta l'industrializzazione di una famiglia di componenti meccanici con gli obiettivi di riduzione del lead time e dei costi di produzione ed un miglioramento della qualità costruttiva. Per fare ciò è stato definito un nuovo ciclo di fabbricazione che riunisse tutte le operazioni di asportazione di truciolo in un unico centro di lavoro di fresatura. Sono state definite, progettate e messe in atto tutte le fasi del processo produttivo utilizzando i moderni software CAD-CAM-CNC. Al termine sono stati elaborati i risultati ottenuti svolgendo anche una analisi economica per valutare il risparmio percentuale annuo sul costo di produzione. Infine è stato fatto un confronto fra il vecchio ed il nuovo processo produttivo realizzato secondo i principi dell'Industria 4.0 ed i relativi vantaggi che esso permette di ottenere.
Resumo:
In questa tesi, sono esposti i sistemi di navigazione che si sono evoluti, parimenti con il progresso scientifico e tecnologico, dalle prime misurazioni della Terra, per opera della civiltà ellenica, circa 2.500 anni fa, sino ai moderni sistemi satellitari e ai mai tramontati sistemi di radionavigazione. I sistemi di navigazione devono rispondere alla sempre maggiore richiesta di precisione, affidabilità, continuità e globalità del servizio, della società moderna. È sufficiente pensare che, attualmente, il solo traffico aereo civile fa volare 5 miliardi di passeggeri ogni anno, in oltre 60 milioni di voli e con un trasporto cargo di 85 milioni di tonnellate (ACI - World Airports Council International, 2012). La quota di traffico marittimo mondiale delle merci, è stata pari a circa 650 milioni di TEU (twenty-foot equivalent unit - misura standard di volume nel trasporto dei container ISO, corrisponde a circa 40 metri cubi totali), nel solo anno 2013 (IAPH - International Association of Ports and Harbors, 2013). Questi pochi, quanto significativi numeri, indicano una evidente necessità di “guidare” questo enorme flusso di aerei e navi in giro per il mondo, sempre in crescita, nella maniera più opportuna, tracciando le rotte adeguate e garantendo la sicurezza necessaria anche nelle fasi più delicate (decollo e atterraggio per gli aeroplani e manovre in porto per le grandi navi). Nello sviluppo della tesi si proverà a capire quali e quanto i sistemi di navigazione possono assolvere al ruolo di “guida” del trasporto aereo e marittimo.
Resumo:
Cardiovascular disease (CVD) due to atherosclerosis of the arterial vessel wall and to thrombosis is the foremost cause of premature mortality and of disability-adjusted life years (DALYs) in Europe, and is also increasingly common in developing countries.1 In the European Union, the economic cost of CVD represents annually E192 billion1 in direct and indirect healthcare costs. The main clinical entities are coronary artery disease (CAD), ischaemic stroke, and peripheral arterial disease (PAD). The causes of these CVDs are multifactorial. Some of these factors relate to lifestyles, such as tobacco smoking, lack of physical activity, and dietary habits, and are thus modifiable. Other risk factors are also modifiable, such as elevated blood pressure, type 2 diabetes, and dyslipidaemias, or non-modifiable, such as age and male gender. These guidelines deal with the management of dyslipidaemias as an essential and integral part of CVD prevention. Prevention and treatment of dyslipidaemias should always be considered within the broader framework of CVD prevention, which is addressed in guidelines of the Joint European Societies’ Task forces on CVD prevention in clinical practice.2 – 5 The latest version of these guidelines was published in 20075; an update will become available in 2012. These Joint ESC/European Atherosclerosis Society (EAS) guidelines on the management of dyslipidaemias are complementary to the guidelines on CVD prevention in clinical practice and address not only physicians [e.g. general practitioners (GPs) and cardiologists] interested in CVD prevention, but also specialists from lipid clinics or metabolic units who are dealing with dyslipidaemias that are more difficult to classify and treat.
Resumo:
The pattern of contact sensitization to the supposedly most important allergens assembled in the baseline series differs between countries, presumably at least partly because of exposure differences. Objectives. To describe the prevalence of contact sensitization to allergens tested in consecutive patients in the years 2007 and 2008, and to discuss possible differences.
Resumo:
BACKGROUND: Continual surveillance based on patch test results has proved useful for the identification of contact allergy. OBJECTIVES: To provide a current view on the spectrum of contact allergy to important sensitizers across Europe. PATIENTS/METHODS: Clinical and patch test data of 19 793 patients patch tested in 2005/2006 in the 31 participating departments from 10 European countries (the European Surveillance System on Contact Allergies' (ESSCA) www.essca-dc.org) were descriptively analysed, aggregated to four European regions. RESULTS: Nickel sulfate remains the most common allergen with standardized prevalences ranging from 19.7% (central Europe) to 24.4% (southern Europe). While a number of allergens shows limited variation across the four regions, such as Myroxylon pereirae (5.3-6.8%), cobalt chloride (6.2-8.8%) or thiuram mix (1.7-2.4%), the differences observed with other allergens may hint on underlying differences in exposures, for example: dichromate 2.4% in the UK (west) versus 4.5-5.9% in the remaining EU regions, methylchloroisothiazolinone/methylisothiazolinone 4.1% in the South versus 2.1-2.7% in the remaining regions. CONCLUSIONS: Notwithstanding residual methodological variation (affecting at least some 'difficult' allergens) tackled by ongoing efforts for standardization, a comparative analysis as presented provides (i) a broad overview on contact allergy frequencies and (ii) interesting starting points for further, in-depth investigation.
Resumo:
Partendo dal concetto di 'regionalismo' oppure d' identità regionale nell'interpretazione che ne ha dato Fernand Braudel ci rendiamo conto che il modo di guardare Venezia e l'arte veneziana con una certa ottica si forma a partire del romanticismo. Sono autori quali John Ruskin e Hippolyte Taine che sulla base della teoria del 'milieu' hanno dato inizio a un metodo della storia dell'arte ottocentesca che identifica il carattere del luogo e della sua gente con l'arte che vi viene prodotta. Il concetto teorico che sta alla base di questo modo di interpretare la pittura, deriva però dal Vasari e si riferiva all'opposizione artistica tra Venezia e Firenze, e al loro antagonismo che secondo Vasari vedeva vincitore il disegno. Dopo Vasari questo concetto viene ripreso da altri teorici italiani, ma all'inizio del Settecento il dibattito si sposta in Francia dove de Piles sulla scia del 'debat des anciens et modernes' dando la palma a Rubens invece di Poussin, prende la parte del colore. Grazie alla diffusione del nuovo gusto per il colore che si diffonde dalla Francia per tutta l'Europa, l'arte veneziana acquista una grandissima riputazione dalla quale approfittano soprattutto i pittori moderni veneziani attivi all'estero, durante il Settecento. Davanti questo sfondo viene sottolineata l'importanza di Venezia per il giovane Mengs che deve il suo primo successo al 'ritratto a pastelli', seguendo il gusto del sovrano sassone Augusto III. A causa dell'incarico per il quadro della chiesa cattolica di Dresda il pittore si porta a Venezia dove studia l'Assunta di Tiziano che si rispecchia nel quadro per Dresda. Dall'incontro con l'arte di Tiziano nasce un intenso dialogo teorico con la sua pittura di modo che Tiziano viene incluso da Mengs nella 'trias' dei tre primi pittori della storia della pittura per la perfezione del suo colore. Tale rivalutazione di Tiziano, pubblicata nei suoi scritti, porta alla revisione generale dei pregiudizi accademici verso la scuola veneziana sul livello teorico e pratico. A Venezia è Andrea Memmo, basandosi sui scritti di Mengs, a dare con la sua 'Orazione' davanti l'Accademia nel 1787 una nuova visione quando abbandona la tradizionale gerarchia 'disegno, colore e chiaroscuro' e con essa anche la tradizionale classifica delle scuole. Angelika Kauffmann che ritrae Memmo durante il suo soggiorno veneziano rappresenta forse il tipo di pittura che Memmo intese come ideale ed è una pittura che riunisce le qualità dei grandi maestri del passato facendolo confluire in un gusto universale. Spetterà poi al Lanzi di introdurre l'idea di una nuova pittura di carattere nazionale che si verifica durante l'Ottocento con i 'Macchiaioli' che danno la prevalenza al colore e non al disegno.
Resumo:
The intrauterine environment is a major contributor to increased rates of metabolic disease in adults. Intrahepatic cholestasis of pregnancy (ICP) is a liver disease of pregnancy that affects 0.5%-2% of pregnant women and is characterized by increased bile acid levels in the maternal serum. The influence of ICP on the metabolic health of offspring is unknown. We analyzed the Northern Finland birth cohort 1985-1986 database and found that 16-year-old children of mothers with ICP had altered lipid profiles. Males had increased BMI, and females exhibited increased waist and hip girth compared with the offspring of uncomplicated pregnancies. We further investigated the effect of maternal cholestasis on the metabolism of adult offspring in the mouse. Females from cholestatic mothers developed a severe obese, diabetic phenotype with hepatosteatosis following a Western diet, whereas matched mice not exposed to cholestasis in utero did not. Female littermates were susceptible to metabolic disease before dietary challenge. Human and mouse studies showed an accumulation of lipids in the fetoplacental unit and increased transplacental cholesterol transport in cholestatic pregnancy. We believe this is the first report showing that cholestatic pregnancy in the absence of altered maternal BMI or diabetes can program metabolic disease in the offspring.
Resumo:
En un primer examen de las auctoritates Ockham formula un claro acercamiento al esquema aristotélico-boeciano y a la definición de persona como sustancia en cuanto suppositum intellectualis, definición que encuentra conveniente aplicar tanto a lo creado como a Dios. Comienza luego una discusión más próxima y contemporánea con los moderni, que está centrada, por un lado en Escoto para quien la persona se ha de definir a partir de la relación; y por otro, con santo Tomás de Aquino. “Persona", para el Aquinate, no significa una naturaleza común quidditas, ousía o sustancia segunda, por el contrario, indica al individuo: “esta carne y estos huesos" pero lo significa de un modo vago e indeterminado. Precisamente, éste es el punto que Ockham discute: qué denota esta significación indeterminada; le dedica a la cuestión un amplio análisis que lo conduce a equiparar los conceptos de naturaleza y de persona. En un paso subsiguiente Ockham propone examinar las personas in divinis: no es posible establecer in divinis ninguna diferencia o distinción; si se afirma en Dios la presencia de tres personas y de una sola naturaleza la adhesión se presta por la fe sin que medie un acercamiento racional al tema. El aparato conceptual y metafísico para abordar el problema de la persona en sede divina, ha pasado por la criba de un examen que concluye, para Ockham, en la verdadera imposibilidad de elaborar una teología trinitaria.