973 resultados para convective strom
Resumo:
In dieser Arbeit werden die sich abzeichnenden zukünftigen Möglichkeiten, Stärken und Schwächen der Kraft-Wärme-Kopplung (KWK) untersucht. Dies geschieht vor dem Hintergrund des Klimawandels, der Integration steigender Anteile Erneuerbarer Energien in die Stromerzeugung und unter Berücksichtigung der sich damit ergebenden Herausforderungen, eine sichere und nachhaltige Stromversorgung zu gestalten. Der Fokus liegt auf der Dieselmotor-KWK und der Nutzung nachwachsender Kraftstoffe. Es wird davon ausgegangen, dass der Übergang zu einer reinen Stromerzeugung aus Erneuerbaren Energiequellen in Deutschland unter erheblicher Einbindung des hohen Potentials der kostengünstigen, umweltfreundlichen, aber in der Leistung extrem fluktuierenden Windenergie erfolgen wird. Als dezentrales Integrationswerkzeug wurde die Kraft-Wärme-Kopplung mit Dieselmotoren untersucht. Sie entspricht aufgrund ihrer großen Flexibilität und ihrer hohen Wirkungsgrade mit vergleichsweise kleinen Leistungen sehr gut den Anforderungen der gleichzeitigen dezentralen Wärmenutzung. In der Dissertation werden die Randbedingungen der Dieselmotor-KWK untersucht und beschrieben. Darauf aufbauend werden unterschiedliche Modelle der Windintegration durch KWK erarbeitet und in diversen Variationen wird der Ausgleich der Stromerzeugung aus Windenergie durch KWK simuliert. Darüber hinaus werden dezentrale KWK-Anlagen hinsichtlich eines koordinierten gemeinsamen Betriebs und hinsichtlich der optimalen Auslegung für den Windenergieausgleich betrachtet. Es wird für den beschriebenen Kontext der Erneuerbaren Energien und der Kraft-Wärme-Kopplung das Thema „Umweltwirkungen“ diskutiert. Es wird dargelegt, dass die heute verwendeten Ansätze zur Bewertung der KWK zu einer Verzerrung der Ergebnisse führen. Demgegenüber wurde mit der so genannten Outputmethode eine Methode der Ökobilanzierung vorgestellt, die, im Gegensatz zu den anderen Methoden, keine verzerrenden Annahmen in die Wirkungsabschätzung aufnimmt und somit eine eindeutige und rein wissenschaftliche Auswertung bleibt. Hiermit ist die Grundlage für die Bewertung der unterschiedlichen Technologien und Szenarien sowie für die Einordnung der KWK in den Kontext der Energieerzeugung gegeben. Mit der Outputmethode wird u.a. rechnerisch bewiesen, dass die gekoppelte Strom- und Wärmeerzeugung in KWK-Anlagen tatsächlich die optimale Nutzung der regenerativen Kraftstoffe „Biogas“ und „Pflanzenöl“ im Hinblick auf Ressourceneinsatz, Treibhausgaseinsparung und Exergieerzeugung ist. Es wurde darüber hinaus die Frage untersucht woher die für die Stromerzeugung durch Dieselmotor-KWK-Anlagen notwendige Bioenergie genommen werden kann. Es ist erwiesen, dass die in Deutschland nutzbare landwirtschaftliche Fläche nur zur Deckung eines Teils der Stromerzeugung ausreichen würde. Einheimisches Biogas und nachhaltiges importiertes Pflanzenöl, das in hohem Maße auf degradierten Böden angebaut werden sollte, können die notwendige Brennstoffenergie liefern. Um im Ausland ausreichend Pflanzenöl herstellen zu können, wird eine landwirtschaftliche Fläche von 6 bis 12 Mio. ha benötigt. Das Ergebnis ist, dass ein voller Ausgleich von Windenergie-Restlast durch KWK mit Erneuerbaren Energieträgern sinnvoll und machbar ist! Dieses Wind-KWK-DSM-System sollte durch ein Stromnetz ergänzt sein, das Wasserkraftstrom für den Großteil der Regelenergieaufgaben nutzt, und das den großräumigen Ausgleich Erneuerbarer Energien in Europa und den Nachbarregionen ermöglicht.
Resumo:
The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
Alle bisher untersuchten Lebewesen besitzen (circadiane) innere Uhren, die eine endogene Perioden-länge von ungefähr 24 Stunden generieren. Eine innere Uhr kann über Zeitgeber mit der Umwelt synchronisiert werden und ermöglicht dem Organismus, rhythmische Umweltveränderungen vorweg zu nehmen. Neben einem zentralen Schrittmacher, der Physiologie und Verhalten des Organismus steuert, gibt es in unterschiedlichen Organen auch periphere Uhren, die die zeitlichen Abläufe in der spezifischen Funktion dieser Organe steuern. In dieser Arbeit sollten zentrale und periphere Schrittmacherneurone von Insekten physiologisch untersucht und verglichen werden. Die Neurone der akzessorischen Medulla (AME) von Rhyparobia maderae dienten als Modellsystem für zentrale Schrittmacher, während olfaktorische Rezeptorneurone (ORNs) von Manduca sexta als Modellsystem für periphere Schrittmacher dienten. Die zentralen Schrittmacherneurone wurden in extrazellulären Ableitungen an der isolierten AME (Netzwerkebene) und in Patch-Clamp Experimenten an primären AME Zellkulturen (Einzelzellebene) untersucht. Auf Netzwerkebene zeigten sich zwei charakteristische Aktivitätsmuster: regelmäßige Aktivität und Wechsel zwischen hoher und niedriger Aktivität (Oszillationen). Es wurde gezeigt, dass Glutamat ein Neurotransmitter der weitverbreiteten inhibitorischen Synapsen der AME ist, und dass in geringem Maße auch exzitatorische Synapsen vorkommen. Das Neuropeptid pigment-dispersing factor (PDF), das von nur wenigen AME Neuronen exprimiert wird und ein wichtiger Kopplungsfaktor im circadianen System ist, führte zu Hemmungen, Aktivierungen oder Oszillationen. Die Effekte waren transient oder langanhaltend und wurden wahrscheinlich durch den sekundären Botenstoff cAMP vermittelt. Ein Zielmolekül von cAMP war vermutlich exchange protein directly activated by cAMP (EPAC). Auf Einzelzellebene wurde gezeigt, dass die meisten AME Neurone depolarisiert waren und deshalb nicht feuerten. Die Analyse von Strom-Spannungs-Kennlinien und pharmakologische Experimente ergaben, dass unterschiedliche Ionenkanäle vorhanden waren (Ca2+, Cl-, K+, Na+ Kanäle sowie nicht-spezifische Kationenkanäle). Starke, bei hohen Spannungen aktivierende Ca2+ Ströme (ICa) könnten eine wichtige Rolle bei Ca2+-abhängiger Neurotransmitter-Ausschüttung, Oszillationen, und Aktionspotentialen spielen. PDF hemmte unterschiedliche Ströme (ICa, IK und INa) und aktivierte nicht-spezifische Kationenströme (Ih). Es wurde angenommen, dass simultane PDF-abhängige Hyper- und Depolarisationen rhythmische Membranpotential-Oszillationen verursachen. Dieser Mechanismus könnte eine Rolle bei PDF-abhängigen Synchronisationen spielen. Die Analyse peripherer Schrittmacherneurone konzentrierte sich auf die Charakterisierung des olfaktorischen Corezeptors von M. sexta (MsexORCO). In anderen Insekten ist ORCO für die Membran-Insertion von olfaktorischen Rezeptoren (ORs) erforderlich. ORCO bildet Komplexe mit den ORs, die in heterologen Expressionssystemen als Ionenkanäle fungieren und Duft-Antworten vermitteln. Es wurde die Hypothese aufgestellt, dass MsexORCO in pheromonsensitiven ORNs in vivo nicht als Teil eines ionotropen Rezeptors sondern als Schrittmacherkanal fungiert, der unterschwellige Membranpotential-Oszillationen generiert. MsexORCO wurde mit vermeintlichen Pheromonrezeptoren in human embryonic kidney (HEK 293) Zellen coexprimiert. Immuncytochemie und Ca2+ Imaging Experimente zeigten sehr schwache Expressionsraten. Trotzdem war es möglich zu zeigen, dass MsexORCO wahrscheinlich ein spontan-aktiver, Ca2+-permeabler Ionenkanal ist, der durch den ORCO-Agonisten VUAA1 und cyclische Nucleotide aktiviert wird. Außerdem wiesen die Experimente darauf hin, dass MsexOR-1 offensichtlich der Bombykal-Rezeptor ist. Eine weitere Charakterisierung von MsexORCO in primären M. sexta ORN Zellkulturen konnte nicht vollendet werden, weil die ORNs nicht signifikant auf ORCO-Agonisten oder -Antagonisten reagierten.
Resumo:
Colloidal self assembly is an efficient method for making 3-D ordered nanostructures suitable for materials such as photonic crystals and macroscopic solids for catalysis and sensor applications. Colloidal crystals grown by convective methods exhibit defects on two different scales. Macro defects such as cracks and void bands originate from the dynamics of meniscus motion during colloidal crystal growth while micro defects like vacancies, dislocation and stacking faults are indigenous to the colloidal crystalline structure. This paper analyses the crystallography and energetics of the microscopic defects from the point of view of classical thermodynamics and discusses the strategy for the control of the macroscopic defects through optimization of the liquid-vapor interface.
Resumo:
The convective-diffusive transport of sub-micron aerosols in an oscillatory laminar flow within a 2-D single bifurcation is studied, using order-of-magnitude analysis and numerical simulation using a commercial software (FEMLAB®). Based on the similarity between momentum and mass transfer equations, various transient mass transport regimes are classified and scaled according to Strouhal and beta numbers. Results show that the mass transfer rate is highest at the carinal ridge and there is a phase-shift in diffusive transport time if the beta number is greater than one. It is also shown that diffusive mass transfer becomes independent of the oscillating outer flow if the Strouhal number is greater than one.
Resumo:
Exam questions and solutions in PDF
Resumo:
Exam questions and solutions in LaTex
Resumo:
ANTECEDENTES: En Colombia, reportes del año 2010 de la Encuesta Nacional de la Situación en Nutrición ENSIN 2010(2), muestran uno de cada dos colombianos, presentan un índice de masa corporal mayor al esperado (3) METODO: El presente estudio de corte transversal, determino la prevalencia de obesidad y otros factores de riesgo cardiovascular en una población de estudiantes de Ciencias de la Salud de una Universidad regional en el primer periodo académico del año 2013. El tamaño de muestra fue n=113 sujetos que corresponden 60,5% a la carrera de medicina y 39,95% a enfermería. Con el fin de conocer su comportamiento con respecto a hábitos y estilos de vida específicos como el consumo de alcohol, el consumo de tabaco y el sedentarismo, así como su asociación a eventos inflamatorios relacionados con la fisiopatología de los procesos de salud asociados al peso, por medio de instrumentos de medición clínica, antropométrica y sérica, determino un modelo estadístico propicio para entender el comportamiento de la obesidad y la enfermedad Cardiovascular RESULTADOS: La prevalencia estimada de sobrepeso y obesidad por Índice de Masa Corporal (IMC), fue del 27,7% (IC 95%: 19.9%,37.2%); por el perímetro abdominal (OBPABD) se encontró una prevalencia estimada del 27,4% (IC 95%: 19,9% – 36,4%), y la prevalencia con el Índice Cintura Cadera (OBICC) fue de 3,5% (IC 95%:1,3% – 9,3%). CONCLUSIONES: La presencia de hábitos no saludables y la presencia de sobrepeso y obesidad se considera que es necesario en primera instancia una valoración general de estado nutricional de los universitarios de las diferentes facultados y plantear estrategias preventivas ya que la literatura documenta los efectos de los hábitos no saludables sino además documenta los efectos de la prevención de la misma ya que en si se ha encontrado asociación para enfermedades cardiovasculares. Se propone que para obtener mayor información del comportamiento de los factores de riesgo cardiovasculares se deberían realizar estudios retrospectivos en el que intervengan las demás carreras de la universidad y poder evaluar la totalidad de población universitaria
Resumo:
La inducción anestésica en niños es uno de los mayores retos para los anestesiólogos ya que es la fase más estresante del período perioperatorio para el paciente pediátrico. Existen diferentes intervenciones para minimizar la ansiedad perioperatoria y aumentar la cooperación del paciente pediátrico con la inducción anestésica. Entre las intervenciones exitosas la premedicación farmacológica con midazolam ha mostrado grandes beneficios en pacientes pediátricos. Metodología: Se realizó un estudio de casos y controles en pacientes pediátricos llevados a cirugía en la Fundación Cardioinfantil entre 2011-2014. Por medio de muestreo aleatorio por conveniencia se tomaron como casos pacientes con premedicación y controles pacientes sin premedicación. El éxito en la inducción se midió por medio de la escala ICC, usada a nivel mundial. Resultados: El promedio de edad fue 4.9 σ 3.01 años para los casos y 5.02σ3.2 años para controles, presentaron la misma distribución por género, 40.6% femenino, 59.3% masculino. El éxito de la inducción anestésica con midazolam mostró resultados significativos (OR 7.3 IC95% 4.3 – 12.5 p0,000), en hombres (OR 9.44 IC95%4.5 – 19.8 p0,000), en menores de 5 años (OR 10.33 IC95% 5.07 – 21.04 p0,000), en pacientes con antecedentes quirúrgicos (OR 12.2 IC95% 5.28 – 27.8 p0.000) o anestesias previas (OR 7.9 IC95% 4.4 – 14.4 p0,000). Discusión: El midazolam como agente farmacológico usado para premedicación en pacientes pediátricos presenta resultados exitosos contundentes, por lo cual debe usarse en todos los casos.
Resumo:
Introducción: La hipotermia perioperatoria se ha documentado como factor de riesgo para el aumento de la morbimortalidad de los pacientes aumentando morbilidad miocárdica, riesgo de infección, pérdidas sanguíneas y tiempo de hospitalización. La aplicación de anestésicos toma relevancia ya que causa la pérdida de control central de la temperatura. Nuestro objetivo con este estudio fue describir la proporción de casos de hipotermia en la población sometida a un reemplazo articular durante un periodo de cuatro meses. Materiales y métodos: Se realizó un estudio de cohorte prospectivo. La población a estudio fueron los pacientes que fueron sometidos a un reemplazo total de cadera, rodilla u hombro. Se registró la temperatura central en el momento previo a la inducción anestésica, 30, 60 y 90 minutos después, al finalizar el procedimiento y al ingresar a recuperación. Se reportó el porcentaje de pacientes con hipotermia en cada tiempo. Resultados: Se analizaron en total 88 pacientes, el 55,7% fue llevado a cirugía de cadera, 39,7% de rodilla y 4,5% de hombro. El tipo de anestesia más utilizado fue general y la duración promedio de anestesia fue 164 minutos. La medición de la temperatura central se realizó en nasofaringe, esófago o tímpano. La proporción de pacientes que presentaron hipotermia en la inducción fue 21,6%, a 30 minutos 83%, a 60 minutos 73,9%, a 90 minutos 68,2%, al finalizar 59,1% y en recuperación 58%. Se realizó una prueba Chi cuadrado comparando las proporciones entre la inducción y los cinco periodos posteriores, se encontró que la proporción de pacientes con hipotermia en los cinco tiempos posteriores tuvo una diferencia estadísticamente significativa (p=0,00) comparada con la proporción de pacientes con hipotermia durante la inducción. Conclusión: En los pacientes sometidos a un reemplazo articular la hipotermia fue una condición prevalente posterior a la aplicación de los anestésicos sistémicos. Los dispositivos de calentamiento intraoperatorio usados actualmente son insuficientes para evitar la hipotermia, lo que indica concordancia con la literatura en cuanto a las recomendaciones de calentamiento perioperatorio, con énfasis en el precalentamiento, para prevenir la caída significativa de la temperatura y la morbimortalidad asociada.
Resumo:
En aquesta tesi s'aborda l'estudi de la turbulència convectiva, a partir d'un treball experimental realitzat a l'estany de Banyoles. Més concretament, els objectius s'emmarquen en dues categories diferents. En la primera, es pretén sistematitzar el marc teòric-conceptual de la turbulència i més concretament de la turbulència convectiva, el qual es troba molt dispers a la bibliografia i sovint enfocat des de perspectives prou diverses. Dins aquest primer objectiu també es pretén sistematitzar tot un conjunt d'eines experimentals de tractament de dades que ens permetran obtenir els valors de les velocitats de dissipació de l'energia cinètica turbulenta i de la variància de temperatura de forma automàtica y obtenir els fluxos turbulents. També volem abordar la caracterització del les escales turbulentes, pel que treballarem amb l'escala de Thorpe i utilitzarem l'anàlisi d'ondetes del senyal de microstructura tèrmica. Dins la segona categoria d'objectius, aquests aplicats directament a l'estany de Banyoles, es pretén aplicar els conceptes desenvolupats al primer objectiu en dos sistemes convectius, un de tipus plomall i l'altre del tipus multidifusiu. Dins aquest context, en els dos primers capítols es presenta teòricament com s'obtenen els fluxos turbulents i s'introdueixen els fenòmens convectius, i en el tercer i quart capítols es descriuen tot un conjunt d'eines d'anàlisi experimental que ens serviran per a l'estudi del cas concret de la convecció al fons de l'estany de Banyoles.
Resumo:
Aquesta tesi permet adquirir una millor comprensió de la dinàmica dels plomalls hidrotèrmics en l'estany de Banyoles i correlacionar la meteorologia amb els processos de fluïdització que s'hi produeixen. S'han trobat els patrons atmosfèrics que generen els esdeveniments de les fluïditzacions així com la seva freqüència. Això és crucial per a determinar la qualitat de l'aigua de l'estany. S'han trobat inhomogeneïtats espacials tant en el plomall crònic que es desenvolupa en la cubeta B1, com en el plomall episòdic de la cubeta B2. S'ha caracteritzat l'estructura del plomall generat a la cubeta B2 i s'ha comparat amb el desenvolupat a la cubeta B1. Finalment, s'han realitzat simulacions numèriques mitjançant un model numèric: MIT General Circulation Model, en el qual s'ha hagut de fer canvis en les condicions de contorn per a situar la font convectiva al fons de la columna d'aigua. Les simulacions s'han comparat amb els resultats experimentals trobats mitjançant campanyes.
Resumo:
The representation of the diurnal cycle in the Hadley Centre climate model is evaluated using simulations of the infrared radiances observed by Meteosat 7. In both the window and water vapour channels, the standard version of the model with 19 levels produces a good simulation of the geographical distributions of the mean radiances and of the amplitude of the diurnal cycle. Increasing the vertical resolution to 30 levels leads to further improvements in the mean fields. The timing of the maximum and minimum radiances reveals significant model errors, however, which are sensitive to the frequency with which the radiation scheme is called. In most regions, these errors are consistent with well documented errors in the timing of convective precipitation, which peaks before noon in the model, in contrast to the observed peak in the late afternoon or evening. When the radiation scheme is called every model time step (half an hour), as opposed to every three hours in the standard version, the timing of the minimum radiance is improved for convective regions over central Africa, due to the creation of upper-level layer-cloud by detrainment from the convection scheme, which persists well after the convection itself has dissipated. However, this produces a decoupling between the timing of the diurnal cycles of precipitation and window channel radiance. The possibility is raised that a similar decoupling may occur in reality and the implications of this for the retrieval of the diurnal cycle of precipitation from infrared radiances are discussed.