966 resultados para Two-point boundary value problems
Resumo:
In this work we look at two different 1-dimensional quantum systems. The potentials for these systems are a linear potential in an infinite well and an inverted harmonic oscillator in an infinite well. We will solve the Schrödinger equation for both of these systems and get the energy eigenvalues and eigenfunctions. The solutions are obtained by using the boundary conditions and numerical methods. The motivation for our study comes from experimental background. For the linear potential we have two different boundary conditions. The first one is the so called normal boundary condition in which the wave function goes to zero on the edge of the well. The second condition is called derivative boundary condition in which the derivative of the wave function goes to zero on the edge of the well. The actual solutions are Airy functions. In the case of the inverted oscillator the solutions are parabolic cylinder functions and they are solved only using the normal boundary condition. Both of the potentials are compared with the particle in a box solutions. We will also present figures and tables from which we can see how the solutions look like. The similarities and differences with the particle in a box solution are also shown visually. The figures and calculations are done using mathematical software. We will also compare the linear potential to a case where the infinite wall is only on the left side. For this case we will also show graphical information of the different properties. With the inverted harmonic oscillator we will take a closer look at the quantum mechanical tunneling. We present some of the history of the quantum tunneling theory, its developers and finally we show the Feynman path integral theory. This theory enables us to get the instanton solutions. The instanton solutions are a way to look at the tunneling properties of the quantum system. The results are compared with the solutions of the double-well potential which is very similar to our case as a quantum system. The solutions are obtained using the same methods which makes the comparison relatively easy. All in all we consider and go through some of the stages of the quantum theory. We also look at the different ways to interpret the theory. We also present the special functions that are needed in our solutions, and look at the properties and different relations to other special functions. It is essential to notice that it is possible to use different mathematical formalisms to get the desired result. The quantum theory has been built for over one hundred years and it has different approaches. Different aspects make it possible to look at different things.
Resumo:
Three grade three mathematics textbooks were selected arbitrarily (every other) from a total of six currently used in the schools of Ontario. These textbooks were examined through content analysis in order to determine the extent (i. e., the frequency of occurrence) to which problem solving strategies appear in the problems and exercises of grade three mathematics textbooks, and how well they carry through the Ministry's educational goals set out in The Formative Years. Based on Polya's heuristic model, a checklist was developed by the researcher. The checklist had two main categories, textbook problems and process problems and a finer classification according to the difficulty level of a textbook problem; also six commonly used problem solving strategies for the analysis of a process problem. Topics to be analyzed were selected from the subject guideline The Formative Years, and the same topics were selected from each textbook. Frequencies of analyzed problems and exercises were compiled and tabulated textbook by textbook and topic by topic. In making comparisons, simple frequency count and percentage were used in the absence of any known criteria available for judging highor low frequency. Each textbook was coded by three coders trained to use the checklist. The results of analysis showed that while there were large numbers of exercises in each textbook, not very many were framed as problems according to Polya' s model and that process problems form a small fraction of the number of analyzed problems and exercises. There was no pattern observed as to the systematic placement of problems in the textbooks.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Cette étude de cas est issue d’un module final de formation pour les employés du service public d’une agence de l’eau. Nous explorons les résultats de plusieurs stratégies utilisées pour souligner le besoin de changement dans les comportements individuels et institutionnels en vue d’améliorer les services aux clients. En particulier, nous explorons certaines manières d’ouvrir la discussion sur les pratiques de corruption de manière non-triviale sans offenser les sensibilités ou provoquer l’indifférence. Comme point de départ, il est demandé aux participants de relever les problèmes institutionnels qu’ils caractérisent comme éthiques, même si d’autres problèmes appartiennent à d’autres catégories identifiées plus tard. Pour éviter une approche purement théorique des devoirs et obligations envers les clients, ils sont dérivés de la mission de l’agence telle que définit par la loi qui l’a créée.
Resumo:
L’adénovirus a été étudié dans l’optique de développer de nouveaux traitements pour différentes maladies. Les vecteurs adénoviraux (AdV) sont des outils intéressants du fait qu’ils peuvent être produits en grandes quantités (1X1012 particules par millilitre) et de par leur capacité à infecter des cellules quiescentes ou en division rapide. Les AdVs ont subi bon nombre de modifications pour leur permettre de traiter des cellules tumorales ou pour transporter des séquences génétiques exogènes essentielles pour le traitement de maladies monogéniques. Toutefois, les faibles niveaux d’expression du récepteur primaire de l’adénovirus, le CAR (récepteur à l’adénovirus et au virus coxsackie), réduit grandement l’efficacité de transduction dans plusieurs tumeurs. De plus, certains tissus normaux comme les muscles n’expriment que très peu de CAR, rendant l’utilisation des AdVs moins significative. Pour pallier à cette limitation, plusieurs modifications ont été générées sur les capsides virales. L’objectif de ces modifications était d’augmenter l’affinité des AdVs pour des récepteurs cellulaires spécifiques surexprimés dans les tumeurs et qui seraient exempts dans les tissus sains avoisinant. On peut mentionner dans les approches étudiées: l’utilisation de ligands bispécifiques, l’incorporation de peptides dans différentes régions de la fibre ou la substitution par une fibre de sérotypes différents. Notre hypothèse était que les domaines d’interaction complémentaire (K-Coil et ECoil) permettraient aux ligands de s’associer aux particules virales et d’altérer le tropisme de l’AdV. Pour ce faire, nous avons inclus un domaine d’interaction synthétique, le K-Coil,dans différentes régions de la fibre virale en plus de générer des mutations spécifiques pour abolir le tropisme naturel. Pour permettre la liaison avec les récepteurs d’intérêt dont l’EGF-R, l’IGF-IR et le CEA6, nous avons fusionné le domaine d’interaction complémentaire, le E-Coil, soit dans les ligands des récepteurs ciblés dont l’EGF et l’IGF-I, soit sur un anticorps à un seul domaine reconnaissant la protéine membranaire CEA6, l’AFAI. Suite à la construction des différents ligands de même que des différentes fibres virales modifiées, nous avons determiné tout d’abord que les différents ligands de même que les virus modifiés pouvaient être produits et que les différentes composantes pouvaient interagir ensemble. Les productions virales ont été optimisées par l’utilisation d’un nouveau protocole utilisant l’iodixanol. Ensuite, nous avons démontré que l’association des ligands avec le virus arborant une fibre modifiée pouvait entraîner une augmentation de transduction de 2 à 21 fois dans différentes lignées cellulaires. À cause de la difficulté des adénovirus à infecter les fibres musculaires occasionnée par l’absence du CAR, nous avons cherché à savoir si le changement de tropisme pourrait accroître l’infectivité des AdVs. Nous avons démontré que l’association avec le ligand bispécifique IGF-E5 permettait d’accroître la transduction autant dans les myoblastes que dans les myotubes de souris. Nous avons finalement réussi à démontrer que notre système pouvait induire une augmentation de 1,6 fois de la transduction suite à l’infection des muscles de souriceaux MDX. Ces résultats nous amènent à la conclusion que le système est fonctionnel et qu’il pourrait être évalué dans des AdVs encodant pour différents gènes thérapeutiques.
Resumo:
Cette étude ethnographique porte sur le réseau social du tango argentin à Montréal, les valeurs esthétiques du tango, l’interprétation de l’expérience de la danse acquise au cours du processus de socialisation et les différents agents de socialisation. Dans un contexte de réappropriation et de déterritorialisation d’un savoir-faire comme le tango, les références symboliques relatives à son contexte d’origine, son imaginaire collectif et son contexte sociohistorique sont moins accessibles. Ceci semble appeler chez les danseurs montréalais une sorte de surdétermination de l’expérience immédiate, concrète et interactive de la danse dans la construction d’un sens collectif. Cette recherche s’intéresse plutôt à la transposition dans le réseau montréalais de certaines normes esthétiques en lien avec les modalités interactives de la danse. Ces normes esthétiques induisent une attention particulière portée à la qualité de l’expérience se reflétant dans les pratiques et les discours. Ces valeurs esthétiques remontent au contexte d’origine du tango et à la rencontre entre différents univers socialisateurs transnationaux à différentes étapes de son évolution. De ce type de rencontres «transesthétiques», s’est développé un dualisme entre le danser pour les autres et le danser pour soi, dans les représentations et la mise en forme d’une expérience dansée. À Montréal, c’est avec emphase qu’on observe la cohabitation de ces deux systèmes de valeurs en apparence antagonistes où, d’une part, est valorisé l’exhibition du soi et, d’autre part, sont priorisés l’intériorité et l’expérience subjective. En bref, ce mémoire explore les relations complexes qui existent entre les processus culturels et leurs produits, l’expérience et le sens, entre la subjectivité individuelle et la collectivité, et redéfinit l’agentivité des acteurs sociaux en étudiant les modes spécifiques de production du sens dans un art comme la danse.
Resumo:
L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.
Resumo:
La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus.
Resumo:
Problématique : La période périnatale est critique pour la santé et le développement de l’enfant. Les problèmes de santé mentale pendant la grossesse et après l’accouchement peuvent mener à des conséquences néfastes sur le développement de l’enfant et les issues plus tardives de sa santé. Cette thèse se concentre sur deux problèmes de santé mentale périnatale d’intérêt substantiel : le stress psychosocial pendant la grossesse et la dépression postnatale. Méthodes : Dans la première partie, nous donnons un aperçu de la dépression postnatale et effectuons une revue de la littérature portant sur deux facteurs de risque qui suscitent un nouvel intérêt, soit le génotype du transporteur de la sérotonine et l’état des acides gras oméga-3 polyinsaturés. Ensuite, dans le cadre de la deuxième partie, nous effectuons une revue de la littérature sur le stress psychosocial pendant la grossesse et la naissance prématurée, le tout en discutant les mécanismes physiologiques reliant ces deux derniers. Puis, nous examinons les liens existant entre le stress psychosocial et la durée de gestation au sein de la cohorte 3D, une étude longitudinale réalisée au Québec. Pour conclure, nous effectuons une investigation plus détaillée sur les facteurs de risque de l’anxiété liée à la grossesse dans la cohorte 3D, ceci en mettant l’accent sur l’historique des grossesses antérieures. Résultats : Dans la première partie, trois études menées rigoureusement révèlent des associations entre le génotype du transporteur de la sérotonine et la dépression postnatale. De même, les preuves s’accumulent à l’effet qu’une insuffisance en acides gras oméga-3 polyinsaturés soit associée à un risque plus élevé de dépression postnatale. Des données probantes préliminaires suggèrent qu’il pourrait y avoir une interaction entre les deux nouveaux facteurs de risque. Dans la deuxième partie, la littérature montre des liens entre le stress psychosocial pendant la grossesse et la naissance prématurée qui varient selon les dimensions du stress et le moment de mesure de celui-ci. Des associations plus fortes sont généralement trouvées plus tôt durant la gestation, alors que la perception subjective du stress et l’anxiété liée à la grossesse sont les plus étroitement associées à la naissance prématurée. Les voies comportementales, infectieuses, neuroinflammatoires, et neuroendocriniennes sont identifiées comme mécanismes physiologiques potentiels. Dans notre étude sur le stress psychosocial et la durée de la gestation au sein la cohorte 3D, nous avons observé une faible association entre l’anxiété liée à la grossesse au troisième trimestre et la naissance spontanée avant 39 semaines de gestation. Dans notre étude sur l’histoire obstétrique et l’anxiété liée à la grossesse, des liens indépendants ont été observés entre plusieurs issues de grossesses antérieures et l’anxiété liée à une grossesse subséquente. Conclusions : Les données probantes de la première partie soutiennent un programme de recherche ayant pour but de clarifier les liens entre les acides gras oméga-3 polyinsaturés, le génotype du transporteur de la sérotonine et la dépression postnatale. Dans la deuxième partie, nos résultats mettent en lumière l’importance relative du stress psychosocial comme prédicteur de la durée de gestation, tout en faisant une contribution importante pour des méta-analyses futures. Ils suggèrent d’ailleurs de nouvelles pistes de recherche pour les cadres conceptuels liant le stress et les issues de la naissance.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
Support Vector Machines (SVMs) perform pattern recognition between two point classes by finding a decision surface determined by certain points of the training set, termed Support Vectors (SV). This surface, which in some feature space of possibly infinite dimension can be regarded as a hyperplane, is obtained from the solution of a problem of quadratic programming that depends on a regularization parameter. In this paper we study some mathematical properties of support vectors and show that the decision surface can be written as the sum of two orthogonal terms, the first depending only on the margin vectors (which are SVs lying on the margin), the second proportional to the regularization parameter. For almost all values of the parameter, this enables us to predict how the decision surface varies for small parameter changes. In the special but important case of feature space of finite dimension m, we also show that there are at most m+1 margin vectors and observe that m+1 SVs are usually sufficient to fully determine the decision surface. For relatively small m this latter result leads to a consistent reduction of the SV number.
Resumo:
El asma es un desorden inflamatorio crónico de la vía aérea, causado por procesos inflamatorios, broncoconstricción, mucosidad y edema. Actualmente se ha relacionado el gen LTC4 sintasa humano con susceptibilidad al asma, sobre el cual se ha documentado un polimorfismos bi-alélico en la región promotora donde el alelo C se ha relacionado con la severidad del cuadro clínico de la enfermedad. Objetivo: estimar las frecuencias alélicas y genotípicas del polimorfismo A(-444)C ubicado en la región Promotora del gen LTC4 Sintasa humano en controles sanos y pacientes pediátricos asmáticos sobre una muestra de la ciudad de Bogotá. Metodología: se analizaron 303 personas, la amplificación de la región de interés del gen LTC4 sintasa humano se realizó mediante la PCR obteniendo un producto de 258pb y restricción enzimática de los productos amplificados donde se obtuvo fragmentos de 199 pb para el alelo A y otro de 166pb para el alelo C. Resultados: en el presente estudio se obtuvo que la frecuencia del alelo A silvestre fue de 0.86 (85.5%) y del alelo C polimórfico del 0.14 (14.5%). No se encontró una diferencia estadísticamente significativa entre las frecuencias alélicas en las dos poblaciones de estudio, valor de p (0.295) En el presente estudio no se encontró asociación entre el alelo polimórfico y la severidad de la enfermedad. Palabras claves: asma, polimorfismo, gen LTC4 sintasa.
Resumo:
Este documento es un trabajo de grado que aborda temas de emprendimiento en su concepto y proceso, la cultura desde un punto de vista antropológico, indagando sobre conceptos teóricos, luego analizando el estado actual de la actividad empresarial en Colombia, para proponer dos soluciones a la problemática de la perdurabilidad empresarial. Para ello es necesario entender el concepto de emprendimiento, cómo es su proceso, y cómo se relaciona la antropología cultural con éstos y el entorno de negocios. No se pretende plantear un modelo de investigación, se quiere proponer un tema que sirva de base para una futura indagación más profunda que posiblemente aportará el descubrimiento de nuevas oportunidades de creación de empresas innovadoras y perdurables.
Resumo:
Introducción: El trasplante de mano es una opción en el tratamiento de pacientes amputados. Su recuperación funcional determina, junto con el manejo de la inmunosupresión, el éxito del trasplante. Este estudio buscó identificar y describir los resultados funcionales, sensibilidad y recuperación motora, en pacientes trasplantados. Metodología: Búsqueda sistemática de la literatura incluyendo estudios prospectivos, retrospectivos y reportes de caso en tres bases de datos primarias y una base de datos de revisiones sistemáticas, bajo criterios de búsqueda específicos. Resultados: Once artículos cumplieron con los criterios de inclusión. La discriminación de dos puntos, la estrognosis, el signo de Tinel, la temperatura, el tacto superficial y profundo y el dolor fueron evaluados. Seis pacientes recuperaron los tres últimos durante los primeros 12 meses, tres más lograron discriminación de dos puntos en los pulpejos entre 1.5 y 3 años. De los restantes uno tiene reporte de normalidad a los seis años y en el otro refieren disminución de la sensibilidad protectiva en el mismo plazo. El rango total de movilidad de los dedos sirvió como evaluación de la función motora en cinco pacientes, tres tuvieron reportes por debajo del 50% de lo normal al año del trasplante, el cuarto logró cerca de un 60%, el último fue artodesado. El tiempo mostró ser un factor para la mejoría en la valoración global de la extremidad superior mediante el uso del DASH. Discusión, conclusiones: es necesaria la estadarización y su publicación, de la medición de los resultados funcionales en los pacientes de trasplante de mano.