905 resultados para porosità, PME, termodinamica del non equilibrio, modello iperbolico e propagazione ondosa, secondo suono
Resumo:
L’elaborato illustra come il cambiamento delle abitudini quotidiane, nel corso degli anni, ha portato alla nascita di un tipo di ristorazione capace di conciliare i bisogni di tipo nutrizionale e relazionale con l’aspetto qualitativo fondato sulla salubrità degli alimenti. Il settore della ristorazione collettiva è disciplinato dai Reg. CE 178\02 e 852\04, i quali stabiliscono rispettivamente i principi ed i requisiti generali della legislazione alimentare e le linee guida sull'igiene dei prodotti alimentari. Le principali categorie di ristorazione collettiva sono quella aziendale, scolastica e sociosanitaria che soddisfano le esigenze di un numero ampio di persone accomunate dall’esigenza di usufruire dei pasti, al di fuori della propria abitazione (lavoratori-studenti- degenti di un ospedale). Le fasi principali da affrontare nell’analisi della ristorazione sono la preparazione e la distribuzione dei pasti con attenzione alla prevenzione delle tossinfezioni alimentari e la salubrità degli alimenti prodotti, trasformati e somministrati. La qualità non deve rappresentare un costo bensì un investimento: le aziende che operano nel settore alimentare hanno necessità di certificare ufficialmente il proprio adeguamento alla Normativa HACCP,al fine di aumentare la trasparenza, fornire sicurezza al consumatore e diminuirne l’incertezza, nel rispetto di quanto previsto dalle Leggi. I centri di produzione durante l’intero ciclo di lavorazione dei pasti, dalla preparazione alla commercializzazione, si affidano all’autocontrollo igienico fondato sui principi del modello HACCP che racchiude tute le misure da adottare per garantire la sicurezza igienico sanitaria e l’integrità degli alimenti. L’adempimento dei principi dell’HACCP nelle catene ristorative viene garantito dai controlli ufficiali svolti dalle autorità sanitarie con programmi ed interventi di vigilanza atti a ridurre i pericoli fisici-biologici che possono rendere dannoso un alimento per il consumatore.
Resumo:
Il buon funzionamento di una qualsiasi tipologia di motore prevede l’utilizzo di un componente che abbia il compito di lubrificare le parti meccaniche in movimento, come, ad esempio, l’olio motore per l’automobile. Un fattore determinante nella scelta dell’olio è la variazione della sua viscosità in relazione alla variazione di temperatura, poiché la temperatura di esercizio di un macchinario è solitamente diversa dalla temperatura di avviamento. Tale valore viene identificato in maniera assoluta dal Viscosity Index (VI). L’olio motore è una formulazione complessa in cui sono presenti l’olio base ed una serie di additivi, tra cui molto importante è il modificatore di viscosità (Viscosity Index Improver, VII), che migliora il VI e permette di utilizzare lo stesso olio a basse ed alte temperature (olio multigrade). Come VII possono essere utilizzate diverse tipologie di polimeri solubili in olio, che variano per caratteristiche e target di mercato. La famiglia presa in esame in questa tesi è quella delle poli-alfa-olefine, utilizzate prevalentemente con oli base minerali, e più precisamente copolimeri etilene/propilene. Sono state analizzate le proprietà che questa famiglia ben nota di OCP (Olefin CoPolymer) ingenera nel sistema base-polimero. In particolare si è cercato di correlare le proprietà molecolari del polimero (composizione, peso molecolare e paracristallinità) con le proprietà “tecnologico-applicative” di ispessimento, stabilità meccanica al taglio, punto di non scorrimento, avviamento a freddo, pompabilità a freddo. L’attività è proseguita con la progettazione di un modello fisico, con l’obiettivo di predire il comportamento tecnologico del sistema olio-polimero in funzione delle proprietà molecolari di polimeri appartenenti alla classe delle poli-alfa-olefine lineari, esaminando anche le proprietà tecnologiche di un omopolimero sperimentale.
Resumo:
Si analizza il comportamento e la risposta di elementi sottoposti a diversi tipi di sollecitazione. Lo scopo ultimo è quello di valutare l’applicabilità di un modello che permetta di ricavare il comportamento di creep a trazione nei calcestruzzi fibrorinforzati, partendo dai risultati delle prove di creep a compressione e creep a flessione.
Resumo:
Lo studio svolto si propone di stabilire quali sono le condizioni di gestione ottimale del sistema di depurazione dei fumi dell’impianto di termovalorizzazione di Rimini, situato nel comune di Coriano e gestito da Herambiente, una società nata nel 2009 nell'ambito del Gruppo Hera, una delle più importanti multiutility italiane che opera nei servizi dell’ambiente, dell’acqua e dell’energia. Il sistema di depurazione dell’impianto è composto da un doppio stadio di abbattimento a secco in cui si dosa calce (Ca(OH)2), al primo stadio, e bicarbonato di sodio (NaHCO3), al secondo. Rispetto alla calce, il bicarbonato garantisce una migliore efficienza di abbattimento dei gas acidi (HCl, SO2, HF), ma ha un prezzo d’acquisto maggiore. Da tale considerazione ha origine il problema di ottimizzazione economica: è necessario individuare una soluzione che consenta di ridurre il consumo e la spesa dei reagenti utilizzati senza alterare le emissioni di inquinanti a camino. I costi operativi legati alla gestione del sistema di depurazione, inoltre, devono tenere in considerazione anche la produzione dei residui solidi generati nei due stadi di abbattimento. Il calcolo di ottimizzazione è stato eseguito utilizzando un modello matematico in grado di prevedere il comportamento dei sistemi reagenti nei due stadi di abbattimento tramite la conoscenza di un parametro empirico. Dopo aver calibrato il modello con i dati di funzionamento dell’impianto, è possibile procedere alla sua implementazione al fine di valutare, in diversi periodi dell’anno 2015, come variano i costi operativi totali in funzione della conversione di HCl (gas acido più critico) al primo stadio di abbattimento e individuare quindi la migliore condizione economico-operativa per ciascun periodo considerato.
Resumo:
Análisis y descripción del resultado del control de constitucionalidad realizado sobre la actividad legislativa desarrollada durante el período presidencial del Dr. Ernesto Samper Pizano comprendido entre el 7 de agosto de 1994 y el 7 de agosto de 1998, en donde se identifiquen vulneraciones a los derechos fundamentales y al equilibrio de los poderes Estatales.
Resumo:
Este texto pretende desarrollar una propuesta de interpretación restrictiva de la aplicación del sistema de circunstancias de agravación de la responsabilidad en el Derecho penal colombiano, con especial acento en las circunstancias genéricas de agravación punitiva, teniendo como referente interpretativo el principio constitucional de non bis in ídem
Resumo:
Sintesi del Documento: si intende fornire un modello di contratto di ricerca industriale che, sebbene non voglia essere completamente esaustivo, data la vastità della materia, possa comunque essere utilizzato come un valido strumento di lavoro a supporto delle attività di ricerca del Dipartimento e dei suoi Istituti afferenti.
Resumo:
Nuestro objetivo es estudiar la percepción de los beneficios y de la mejora del equilibrio motriz que tienen los participantes de la tercera edad en un programa de actividad física. Realizamos un enfoque mixed methods de tipo embedded design de los datos obtenidos de la observación sistematizada de los patrones motrices que generan programas dirigidos a este colectivo; la administración de un test estandarizado de equilibrio en geriatría y un cuestionario validado. Se analizaron 19 sesiones de actividad física para obtener los patrones motrices que se desarrollan en dichos programas. Aplicamos el sistema de observación OSMOS_in context, codificado mediante LINCE v.1 y la subsiguiente detección de T-Patterns mediante THEME v.6, La puntuación del equilibrio motriz, administrando la escala de Tinetti, se obtuvo de los 90 participantes de los programas. Los datos de la percepción de beneficios se han obtenido a partir del cuestionario realizando un análisis de contenido, mediante el software Atlas-ti v. 6.2. Los T-patterns que hemos obtenido muestran el trabajo específico de estabilidad motriz de manera conjunta a otras capacidades y habilidades motrices específicas, aspectos que se corroboran en la puntuación de la escala de Tinetti y que los participantes corroboran y relacionan con una mejoría en la percepción de beneficios tanto físicos como sociales.
Resumo:
En las ciencias sociales de latinoamericanas, una intensa discusión sobre los procesos de desarrollo, subdesarrollo, dependencia, imperialismo y otros conceptos similares o relacionados, data desde hace más de 50 años. La teoría de la CEPAL de los años 50 y 60 del pasado siglo introdujo la noción de centro-periferia, como un marco general para su explicación del subdesarrollo. La tradición marxista puso, y sigue poniendo, el énfasis en la extracción y transferencia de excedentes hacia los centros desarrollados, aunque los mecanismos de esta transferencia no han sido del todo aclarados teóricamente (distintas variantes del “intercambio desigual”). Y la llamada escuela de la dependenciallamó la atención sobre la dialéctica entre desarrollo y subdesarrollo, siendo el subdesarrollo de las zonas periféricas un resultado, más o menos mecánico, del desarrollo de los centros; teniendo la virtud de resaltar el carácter global y estructuralmente diferenciado del capitalismo, pero sin lograr explicar esta dialéctica que era su punto de partida.
Resumo:
Es bien sabido por todos que los exportadores de productos no tradicionales que se han beneficiado con el otorgamiento del Certificado de Abono Tributario (CAT), dejarán de hacerlo a partir del año 2000. El objetivo de este artículo es analizar, de una forma cuantitativa, el impacto potencial que la eliminación de dicho incentivo podría tener sobre la producción, el empleo y la generación de ingreso. Complementariamente, se busca determinar los posibles impactos de otros instrumentos como los impuestos a las exportaciones y las tarifas a las importaciones en su papel de incentivos de política comercial para compensar la eliminación de los CAT. Como bien se explica más adelante, la metodología utilizada para desarrollar el análisis cuantitativo es un modelo computable de equilibrio general.
Resumo:
El Equilibrio Químico en todas sus vertientes (reacciones de oxidación- reducción, comportamiento ácido-base, principio de Le Chatelier, etc.) es uno de los conceptos esenciales de la Química y es la base para la comprensión de una amplia gama de situaciones de interés en dicho campo. Por lo tanto es fundamental que el alumno alcance esa destreza-concepto lo antes posible, lo que conlleva que sea necesaria una revisión metodológica para adaptarse a los nuevos tiempos y a las nuevas necesidades de los alumnos. Dicha revisión está encaminada a tratar de dar respuesta a las consideraciones alternativas que presentan los alumnos en el ámbito universitario en relación al concepto de Equilibrio Químico. Para llevarla a cabo, se propone el uso de simuladores interactivos como recurso de apoyo que permita el acceso a un escenario novedoso que facilite la interacción directa con los principios y conceptos más significativos. Los simuladores, desde un enfoque constructivista, dan respuesta a la necesidad de adaptación y cambio que suscita el cambio de paradigma metodológico en ambientes universitarios, contribuyendo, en gran medida, al aprendizaje autónomo del alumno.
Resumo:
Il presente elaborato si propone di analizzare i moderni sistemi d’isolamento sismico. In particolare si studiano il funzionamento e le procedure di calcolo degli isolatori a pendolo scorrevole, facendo riferimento alle prescrizioni dell’attuale normativa tecnica e si analizza l’affidabilità sismica di una struttura isolata con tali dispositivi. Nell’ottica di voler introdurre i concetti base della progettazione antisismica, nel primo capitolo, vengono descritte le origini del fenomeno sismico, per arrivare alla definizione di accelerogramma di un terremoto. Per comprendere il passaggio da accelerogramma a spettro dell’azione sismica, si introduce la dinamica dei sistemi ad un grado di libertà per poi arrivare a definire gli spettri di risposta previsti dall’attuale normativa. Nel secondo capitolo vengono illustrati gli scopi e le funzionalità dell’isolamento sismico per poi passare in rassegna le principali tipologie di dispositivi antisismici attualmente in commercio. Nel terzo capitolo si analizza nel dettaglio il funzionamento degli isolatori a pendolo scorrevole, studiandone la modellazione matematica alla base e le procedure di calcolo previste dall’Eurocodice 8 e dalle NTC 08. Nello stesso capitolo viene progettato un dispositivo di isolamento a pendolo scorrevole, secondo l'analisi lineare equivalente. Nel quarto capitolo viene illustrata l’analisi sismica effettuata dagli ingegneri Castaldo, Palazzo e Della Vecchia, dell’università di Salerno, i cui risultati sono riportati nella rivista scientifica Engeneering structures, n. 95, 2015, pp. 80-93. Lo studio è effettuato sul modello strutturale tridimensionale di un edificio in calcestruzzo armato, isolato alla base con dispositivi a pendolo scorrevole.
Resumo:
I Big Data stanno guidando una rivoluzione globale. In tutti i settori, pubblici o privati, e le industrie quali Vendita al dettaglio, Sanità, Media e Trasporti, i Big Data stanno influenzando la vita di miliardi di persone. L’impatto dei Big Data è sostanziale, ma così discreto da passare inosservato alla maggior parte delle persone. Le applicazioni di Business Intelligence e Advanced Analytics vogliono studiare e trarre informazioni dai Big Data. Si studia il passaggio dalla prima alla seconda, mettendo in evidenza aspetti simili e differenze.
Resumo:
Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.
Resumo:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.