982 resultados para Smallmouth bass


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le mémoire historiographique qui suit a comme sujet principal l’étude de l’évolution des perceptions françaises sur l’implication américaine au Vietnam. Nous nous sommes basés sur l’historiographie de deux périodes distinctes, soit celles des années 1960-1970 et 1990-2000. L’objectif était de voir s’il y a eu une transformation du regard que portent les auteurs sur l’implication américaine et, si oui, quelles en sont les causes. Le travail est construit de façon thématique et se divise en trois chapitres. Le premier aborde le choix et l’ampleur des armes utilisées, le second se penche sur la notion du communisme et de la démocratie, et le dernier traite de la conception de l’impérialisme et du colonialisme. Pour tous les thèmes examinés, nous résumons la perception qui ressort de chacun des auteurs afin de comparer les tendances idéologiques propres aux deux périodes étudiées. Nous conclurons qu’il s’est effectivement produit une importante transformation des perceptions. Cette transformation se traduit par une approche de moins en moins critique envers l’implication américaine au Vietnam. Dans chaque chapitre, nous avons pu soulever des causes de changement propres au sujet abordé. Toutefois, une tendance générale et sous-jacente se dégage et s’avère des plus révélatrices, soit le glissement en France des valeurs politiques et morales de la gauche vers la droite, doublé d’un rapprochement idéologique avec les États-Unis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’étiquette « homme-orchestre » est apposée à une grande variété de musiciens qui se distinguent en jouant seuls une performance qui est normalement interprétée par plusieurs personnes. La diversité qu’a pu prendre au cours du temps cette forme n’est pas prise en compte par la culture populaire qui propose une image relativement constante de cette figure tel que vue dans les films Mary Poppins (1964) de Walt Disney et One-man Band (2005) de Pixar. Il s’agit d’un seul performeur vêtu d’un costume coloré avec une grosse caisse sur le dos, des cymbales entre les jambes, une guitare ou un autre instrument à cordes dans les mains et un petit instrument à vent fixé assez près de sa bouche pour lui permettre d’alterner le chant et le jeu instrumental. Cette thèse propose une analyse de l’homme-orchestre qui va au-delà de sa simple production musicale en situant le phénomène comme un genre spectaculaire qui transmet un contenu symbolique à travers une relation tripartite entre performance divertissante, spectateur et image. Le contenu symbolique est lié aux idées caractéristiques du Siècle des lumières tels que la liberté, l’individu et une relation avec la technologie. Il est aussi incarné simultanément par les performeurs et par la représentation de l’homme-orchestre dans l’imaginaire collectif. En même temps, chaque performance sert à réaffirmer l’image de l’homme-orchestre, une image qui par répétitions est devenue un lieu commun de la culture, existant au-delà d’un seul performeur ou d’une seule performance. L’aspect visuel de l’homme-orchestre joue un rôle important dans ce processus par une utilisation inattendue du corps, une relation causale entre corps, technologie et production musicale ainsi que par l’utilisation de vêtements colorés et d’accessoires non musicaux tels des marionnettes, des feux d’artifice ou des animaux vivants. Ces éléments spectaculaires divertissent les spectateurs, ce qui se traduit, entre autres, par un gain financier pour le performeur. Le divertissement a une fonction phatique qui facilite la communication du contenu symbolique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le foie est un organe vital ayant une capacité de régénération exceptionnelle et un rôle crucial dans le fonctionnement de l’organisme. L’évaluation du volume du foie est un outil important pouvant être utilisé comme marqueur biologique de sévérité de maladies hépatiques. La volumétrie du foie est indiquée avant les hépatectomies majeures, l’embolisation de la veine porte et la transplantation. La méthode la plus répandue sur la base d'examens de tomodensitométrie (TDM) et d'imagerie par résonance magnétique (IRM) consiste à délimiter le contour du foie sur plusieurs coupes consécutives, un processus appelé la «segmentation». Nous présentons la conception et la stratégie de validation pour une méthode de segmentation semi-automatisée développée à notre institution. Notre méthode représente une approche basée sur un modèle utilisant l’interpolation variationnelle de forme ainsi que l’optimisation de maillages de Laplace. La méthode a été conçue afin d’être compatible avec la TDM ainsi que l' IRM. Nous avons évalué la répétabilité, la fiabilité ainsi que l’efficacité de notre méthode semi-automatisée de segmentation avec deux études transversales conçues rétrospectivement. Les résultats de nos études de validation suggèrent que la méthode de segmentation confère une fiabilité et répétabilité comparables à la segmentation manuelle. De plus, cette méthode diminue de façon significative le temps d’interaction, la rendant ainsi adaptée à la pratique clinique courante. D’autres études pourraient incorporer la volumétrie afin de déterminer des marqueurs biologiques de maladie hépatique basés sur le volume tels que la présence de stéatose, de fer, ou encore la mesure de fibrose par unité de volume.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie de Lyme est la maladie vectorielle la plus fréquente dans les pays tempérés et est en émergence dans plusieurs régions du monde. Plusieurs stratégies de prévention existent et comprennent des interventions qui visent les individus, comme le port de vêtements protecteurs, et d’autres qui sont implantées au niveau collectif, dont des interventions de contrôle des tiques dans l’environnement. L’efficacité de ces stratégies peut être influencée par divers facteurs, dont des facteurs sociaux tels que les connaissances, les perceptions et les comportements de la population ciblée. Elles peuvent également avoir des impacts parallèles non désirés, par exemple sur l’environnement et l’économie, et ces derniers peuvent s’opposer aux bénéfices des interventions jusqu’à remettre en cause la pertinence de leur mise en œuvre. Aussi, ces facteurs sociaux et les impacts des interventions sont susceptibles de varier selon la population ciblée et en fonction du contexte épidémiologique et social. L’objectif de cette thèse était donc d’étudier les principaux facteurs sociaux et enjeux d’importance à considérer pour évaluer l’efficacité et prioriser des interventions de prévention pour la maladie de Lyme dans deux populations exposées à des contextes différents, notamment en ce qui concerne leur situation épidémiologique, soient au Québec, où l’incidence de la maladie de Lyme est faible mais en émergence, et en Suisse, où elle est élevée et endémique depuis plus de trois décennies. L’approche choisie et le devis général de l’étude sont basés sur deux modèles théoriques principaux, soient le modèle des croyances relatives à la santé et celui de l’aide à la décision multicritère. Dans un premier temps, les facteurs associés à la perception du risque pour la maladie de Lyme, c’est-à-dire l’évaluation cognitive d’une personne face au risque auquel elle fait face, ont été étudiés. Les résultats suggèrent que les facteurs significatifs sont différents dans les deux régions à l’étude. Ensuite, l’impact des connaissances, de l’exposition, et des perceptions sur l’adoption de comportements préventifs individuels et sur l’acceptabilité des interventions de contrôle des tiques (acaricides, modifications de l’habitat, contrôle des cervidés) a été comparé. Les résultats suggèrent que l’impact des facteurs varierait en fonction du type du comportement et des interventions, mais que la perception de l’efficacité est un facteur commun fortement associé à ces deux aspects, et pourrait être un facteur-clé à cibler lors de campagnes de communication. Les résultats montrent également que les enjeux relatifs aux interventions de contrôle des tiques tels que perçus par la population générale seraient communs dans les deux contextes de l’étude, et partagés par les intervenants impliqués dans la prévention de la maladie de Lyme. Finalement, un modèle d’analyse multicritère a été développé à l’aide d’une approche participative pour le contexte du Québec puis adapté pour le contexte suisse et a permis d’évaluer et de prioriser les interventions préventives selon les différentes perspectives des intervenants. Les rangements produits par les modèles au Québec et en Suisse ont priorisé les interventions qui ciblent principalement les populations humaines, devant les interventions de contrôle des tiques. L’application de l’aide à la décision multicritère dans le contexte de la prévention de la maladie de Lyme a permis de développer un modèle décisionnel polyvalent et adaptable à différents contextes, dont la situation épidémiologique. Ces travaux démontrent que cette approche peut intégrer de façon rigoureuse et transparente les multiples perspectives des intervenants et les enjeux de la prévention relatifs à la santé publique, à la santé animale et environnementale, aux impacts sociaux, ainsi qu’aux considérations économiques, opérationnelles et stratégiques. L’utilisation de ces modèles en santé publique favoriserait l’adoption d’une approche « Une seule santé » pour la prévention de la maladie de Lyme et des zoonoses en général. Mots-clés : maladie de Lyme, prévention, facteurs sociaux, perception du risque, comportements préventifs, acceptabilité, priorisation des interventions, contrôle des tiques, aide à la décision multicritère, analyse multicritère, Québec, Suisse, « Une seule santé »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur le développement de biocapteurs basés sur la technique de résonance des plasmons de surface (SPR) pour effectuer des analyses directement dans un fluide sanguin n’ayant subi aucune purification ou dilution. L’ensemble des biocapteurs discutés exploiteront un instrument SPR portable développé dans le groupe du professeur Masson. Le premier volet de la thèse portera sur le processus d’interférence lié à l’adsorption non spécifique du sérum à la surface du capteur. L’analyse des biomolécules adsorbées sera effectuée en combinant la SPR à la spectrométrie de masse. Les informations obtenues seront exploitées pour la construction de biocapteurs adaptés à l’analyse en milieu sanguin. Un premier biocapteur développé ciblera la protéine antigène prostatique spécifique (APS) contenue dans le sérum servant de biomarqueur pour dépister le cancer de la prostate. Pour détecter les faibles concentrations de cette protéine directement dans le sérum, un matériel plasmonique microstructuré sera utilisé pour amplifier les signaux obtenus et sera recouvert d’une monocouche peptidique minimisant l’adsorption non spécifique du sérum. L’instrument SPR aura été adapté pour permettre également la détection simultanée de fluorescence. Un test ELISA sera ainsi effectué en parallèle du test SPR. Chacune des techniques fournira un contrôle pour la deuxième, tout en permettant de détecter le biomarqueur au niveau requis pour dépister la maladie. La combinaison des deux méthodes permettra aussi d’élargir la gamme dynamique du test de dépistage. Pour terminer, l’instrument SPR portable sera utilisé dans le cadre de détection de petites biomolécules ayant un potentiel thérapeutique directement dans un échantillon de sang. Des peptides ayant une activité anti-athérosclérotique pourront ainsi être détectés à même un échantillon de sang ni purifié ni dilué, et ce à des concentrations de l’ordre du micromolaire. Une modification de la microfluidique via l’introduction d’une membrane poreuse au cœur de celle-ci sera la clé permettant d’effectuer de telles analyses. La présente thèse met de l’avant de nouvelles stratégies et des modifications instrumentales permettant d’analyser des protéines et des petites molécules directement dans un échantillon non purifié de sérum ou de sang. Les modifications apportées au système fluidique, à l’instrument SPR et au niveau du biocapteur employé permettront d’effectuer des biodétections dans des matrices aussi complexes que les fluides sanguins. Les présents travaux mettent en lumière la capacité d’un instrument SPR/fluorescence portable à faire en 12 minutes la biodétection d’un marqueur du cancer de la prostate directement dans un échantillon de sérum. Finalement, on rapporte ici un des premiers articles où un biocapteur SPR est utilisé à même un échantillon de sang non-purifié pour faire des biodétections.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les protéines sont au coeur de la vie. Ce sont d'incroyables nanomachines moléculaires spécialisées et améliorées par des millions d'années d'évolution pour des fonctions bien définies dans la cellule. La structure des protéines, c'est-à-dire l'arrangement tridimensionnel de leurs atomes, est intimement liée à leurs fonctions. L'absence apparente de structure pour certaines protéines est aussi de plus en plus reconnue comme étant tout aussi cruciale. Les protéines amyloïdes en sont un exemple marquant : elles adoptent un ensemble de structures variées difficilement observables expérimentalement qui sont associées à des maladies neurodégénératives. Cette thèse, dans un premier temps, porte sur l'étude structurelle des protéines amyloïdes bêta-amyloïde (Alzheimer) et huntingtine (Huntington) lors de leur processus de repliement et d'auto-assemblage. Les résultats obtenus permettent de décrire avec une résolution atomique les interactions des ensembles structurels de ces deux protéines. Concernant la protéine bêta-amyloïde (AB), nos résultats identifient des différences structurelles significatives entre trois de ses formes physiologiques durant ses premières étapes d'auto-assemblage en environnement aqueux. Nous avons ensuite comparé ces résultats avec ceux obtenus au cours des dernières années par d'autres groupes de recherche avec des protocoles expérimentaux et de simulations variés. Des tendances claires émergent de notre comparaison quant à l'influence de la forme physiologique de AB sur son ensemble structurel durant ses premières étapes d'auto-assemblage. L'identification des propriétés structurelles différentes rationalise l'origine de leurs propriétés d'agrégation distinctes. Par ailleurs, l'identification des propriétés structurelles communes offrent des cibles potentielles pour des agents thérapeutiques empêchant la formation des oligomères responsables de la neurotoxicité. Concernant la protéine huntingtine, nous avons élucidé l'ensemble structurel de sa région fonctionnelle située à son N-terminal en environnement aqueux et membranaire. En accord avec les données expérimentales disponibles, nos résultats sur son repliement en environnement aqueux révèlent les interactions dominantes ainsi que l'influence sur celles-ci des régions adjacentes à la région fonctionnelle. Nous avons aussi caractérisé la stabilité et la croissance de structures nanotubulaires qui sont des candidats potentiels aux chemins d'auto-assemblage de la région amyloïde de huntingtine. Par ailleurs, nous avons également élaboré, avec un groupe d'expérimentateurs, un modèle détaillé illustrant les principales interactions responsables du rôle d'ancre membranaire de la région N-terminal, qui sert à contrôler la localisation de huntingtine dans la cellule. Dans un deuxième temps, cette thèse porte sur le raffinement d'un modèle gros-grain (sOPEP) et sur le développement d'un nouveau modèle tout-atome (aaOPEP) qui sont tous deux basés sur le champ de force gros-grain OPEP, couramment utilisé pour l'étude du repliement des protéines et de l'agrégation des protéines amyloïdes. L'optimisation de ces modèles a été effectuée dans le but d'améliorer les prédictions de novo de la structure de peptides par la méthode PEP-FOLD. Par ailleurs, les modèles OPEP, sOPEP et aaOPEP ont été inclus dans un nouveau code de dynamique moléculaire très flexible afin de grandement simplifier leurs développements futurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tridimensionnelle (3D) de la colonne vertébrale. Pour la plupart des patients atteints de SIA, aucun traitement chirurgical n’est nécessaire. Lorsque la déformation devient sévère, un traitement chirurgical visant à réduire la déformation est recommandé. Pour déterminer la sévérité de la SIA, l’imagerie la plus utilisée est une radiographie postéroantérieure (PA) ou antéro-postérieure (AP) du rachis. Plusieurs indices sont disponibles à partir de cette modalité d’imagerie afin de quantifier la déformation de la SIA, dont l’angle de Cobb. La conduite thérapeutique est généralement basée sur cet indice. Cependant, les indices disponibles à cette modalité d’imagerie sont de nature bidimensionnelle (2D). Celles-ci ne décrivent donc pas entièrement la déformation dans la SIA dû à sa nature tridimensionnelle (3D). Conséquemment, les classifications basées sur les indices 2D souffrent des mêmes limitations. Dans le but décrire la SIA en 3D, la torsion géométrique a été étudiée et proposée par Poncet et al. Celle-ci mesure la tendance d’une courbe tridimensionnelle à changer de direction. Cependant, la méthode proposée est susceptible aux erreurs de reconstructions 3D et elle est calculée localement au niveau vertébral. L’objectif de cette étude est d’évaluer une nouvelle méthode d’estimation de la torsion géométrique par l’approximation de longueurs d’arcs locaux et par paramétrisation de courbes dans la SIA. Une première étude visera à étudier la sensibilité de la nouvelle méthode présentée face aux erreurs de reconstructions 3D du rachis. Par la suite, deux études cliniques vont présenter la iv torsion géométrique comme indice global et viseront à démontrer l’existence de sous-groupes non-identifiés dans les classifications actuelles et que ceux-ci ont une pertinence clinique. La première étude a évalué la robustesse de la nouvelle méthode d’estimation de la torsion géométrique chez un groupe de patient atteint de la SIA. Elle a démontré que la nouvelle technique est robuste face aux erreurs de reconstructions 3D du rachis. La deuxième étude a évalué la torsion géométrique utilisant cette nouvelle méthode dans une cohorte de patient avec des déformations de type Lenke 1. Elle a démontré qu’il existe deux sous-groupes, une avec des valeurs de torsion élevées et l’autre avec des valeurs basses. Ces deux sous-groupes possèdent des différences statistiquement significatives, notamment au niveau du rachis lombaire avec le groupe de torsion élevée ayant des valeurs d’orientation des plans de déformation maximales (PMC) en thoraco-lombaire (TLL) plus élevées. La dernière étude a évalué les résultats chirurgicaux de patients ayant une déformation Lenke 1 sous-classifiées selon les valeurs de torsion préalablement. Cette étude a pu démontrer des différences au niveau du PMC au niveau thoraco-lombaire avec des valeurs plus élevées en postopératoire chez les patients ayant une haute torsion. Ces études présentent une nouvelle méthode d’estimation de la torsion géométrique et présentent cet indice quantitativement. Elles ont démontré l’existence de sous-groupes 3D basés sur cet indice ayant une pertinence clinique dans la SIA, qui n’étaient pas identifiés auparavant. Ce projet contribue dans la tendance actuelle vers le développement d’indices 3D et de classifications 3D pour la scoliose idiopathique de l’adolescent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le traumatisme craniocérébral léger (TCCL) a des effets complexes sur plusieurs fonctions cérébrales, dont l’évaluation et le suivi peuvent être difficiles. Les problèmes visuels et les troubles de l’équilibre font partie des plaintes fréquemment rencontrées après un TCCL. En outre, ces problèmes peuvent continuer à affecter les personnes ayant eu un TCCL longtemps après la phase aiguë du traumatisme. Cependant, les évaluations cliniques conventionnelles de la vision et de l’équilibre ne permettent pas, la plupart du temps, d’objectiver ces symptômes, surtout lorsqu’ils s’installent durablement. De plus, il n’existe pas, à notre connaissance, d’étude longitudinale ayant étudié les déficits visuels perceptifs, en tant que tels, ni les troubles de l’équilibre secondaires à un TCCL, chez l’adulte. L’objectif de ce projet était donc de déterminer la nature et la durée des effets d’un tel traumatisme sur la perception visuelle et sur la stabilité posturale, en évaluant des adultes TCCL et contrôles sur une période d’un an. Les mêmes sujets, exactement, ont participé aux deux expériences, qui ont été menées les mêmes jours pour chacun des sujets. L’impact du TCCL sur la perception visuelle de réseaux sinusoïdaux définis par des attributs de premier et de second ordre a d’abord été étudié. Quinze adultes diagnostiqués TCCL ont été évalués 15 jours, 3 mois et 12 mois après leur traumatisme. Quinze adultes contrôles appariés ont été évalués à des périodes identiques. Des temps de réaction (TR) de détection de clignotement et de discrimination de direction de mouvement ont été mesurés. Les niveaux de contraste des stimuli de premier et de second ordre ont été ajustés pour qu’ils aient une visibilité comparable, et les moyennes, médianes, écarts-types (ET) et écarts interquartiles (EIQ) des TR correspondant aux bonnes réponses ont été calculés. Le niveau de symptômes a également été évalué pour le comparer aux données de TR. De façon générale, les TR des TCCL étaient plus longs et plus variables (plus grands ET et EIQ) que ceux des contrôles. De plus, les TR des TCCL étaient plus courts pour les stimuli de premier ordre que pour ceux de second ordre, et plus variables pour les stimuli de premier ordre que pour ceux de second ordre, dans la condition de discrimination de mouvement. Ces observations se sont répétées au cours des trois sessions. Le niveau de symptômes des TCCL était supérieur à celui des participants contrôles, et malgré une amélioration, cet écart est resté significatif sur la période d’un an qui a suivi le traumatisme. La seconde expérience, elle, était destinée à évaluer l’impact du TCCL sur le contrôle postural. Pour cela, nous avons mesuré l’amplitude d’oscillation posturale dans l’axe antéropostérieur et l’instabilité posturale (au moyen de la vitesse quadratique moyenne (VQM) des oscillations posturales) en position debout, les pieds joints, sur une surface ferme, dans cinq conditions différentes : les yeux fermés, et dans un tunnel virtuel tridimensionnel soit statique, soit oscillant de façon sinusoïdale dans la direction antéropostérieure à trois vitesses différentes. Des mesures d’équilibre dérivées de tests cliniques, le Bruininks-Oseretsky Test of Motor Proficiency 2nd edition (BOT-2) et le Balance Error Scoring System (BESS) ont également été utilisées. Les participants diagnostiqués TCCL présentaient une plus grande instabilité posturale (une plus grande VQM des oscillations posturales) que les participants contrôles 2 semaines et 3 mois après le traumatisme, toutes conditions confondues. Ces troubles de l’équilibre secondaires au TCCL n’étaient plus présents un an après le traumatisme. Ces résultats suggèrent également que les déficits affectant les processus d’intégration visuelle mis en évidence dans la première expérience ont pu contribuer aux troubles de l’équilibre secondaires au TCCL. L’amplitude d’oscillation posturale dans l’axe antéropostérieur de même que les mesures dérivées des tests cliniques d’évaluation de l’équilibre (BOT-2 et BESS) ne se sont pas révélées être des mesures sensibles pour quantifier le déficit postural chez les sujets TCCL. L’association des mesures de TR à la perception des propriétés spécifiques des stimuli s’est révélée être à la fois une méthode de mesure particulièrement sensible aux anomalies visuomotrices secondaires à un TCCL, et un outil précis d’investigation des mécanismes sous-jacents à ces anomalies qui surviennent lorsque le cerveau est exposé à un traumatisme léger. De la même façon, les mesures d’instabilité posturale se sont révélées suffisamment sensibles pour permettre de mesurer les troubles de l’équilibre secondaires à un TCCL. Ainsi, le développement de tests de dépistage basés sur ces résultats et destinés à l’évaluation du TCCL dès ses premières étapes apparaît particulièrement intéressant. Il semble également primordial d’examiner les relations entre de tels déficits et la réalisation d’activités de la vie quotidienne, telles que les activités scolaires, professionnelles ou sportives, pour déterminer les impacts fonctionnels que peuvent avoir ces troubles des fonctions visuomotrice et du contrôle de l’équilibre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conjunt d'articles amb anàlisis i reflexions sobre el factor temps l'àmbit de la tècnica des de diferents punts de vista

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente documento busca dar cuenta de las actividades que desarrollé para dar apoyo y complemento al proyecto de investigación “Los mecanismos de influencia en la relación de liderazgo”, en el cual me desempeñé como asistente de investigación. El proyecto de investigación es adelantado por el profesor Juan Javier Saavedra Mayorga y pertenece a la línea de investigación en Liderazgo de la Facultad de Administración de la Universidad del Rosario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo de investigación, estudia a través del caso de la cohorte del 2000 de la Facultad de Ingeniería de la Universidad Distrital, el tipo de coyuntura que le permitió a este grupo de jóvenes reingresar a la Universidad y culminar la carrera al haber tenido que abandonarla en un primer momento, por problemas socio-económicos y/o académicos. Por medio del estudio del reintegro universitario, este trabajo se enmarca en el campo, poco explorado, de la existencia y efectividad de medidas de "segundas oportunidades" educativas que las instituciones de educación superior le ofrecen a estudiantes que por problemas de orden estructural se ven obligados a abandonar la Universidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ante la globalización y las nuevas tendencias de consumo que se han venido desarrollando a través de los años, las diferentes firmas en el mundo se han visto en la necesidad de buscar estrategias que les permita ser productivas generando más valor a los consumidores. En este sentido, ha surgido la necesidad de trabajar de manera conjunta y a su vez crear lazos de cooperación entre las diferentes organizaciones para el logro de mejores resultados. Las redes empresariales son una opción de integración de procesos y recursos para las organizaciones, sin embargo durante la creación de esta se generan cambios organizacionales que impactan en factores como la cultura organizacional. El cambio en la cultura organizacional se produce de manera gradual o abrupta según la forma de cooperación que ejecuten las empresas o por el contexto externo al cual pertenezca la organización. Así mismo, el líder es el encargado de gestionar el cambio en los valores (núcleo de la cultura), prácticas o la filosofía de las organizaciones; sin el apoyo de los líderes el fracaso de una cultura organizacional en una empresa, red, clúster o alianza será incuestionable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los retos más complejos que enfrentan los líderes de las empresas es obtener resultados que las hagan perdurables a lo largo del tiempo. Usualmente, la innovación es vista como una estrategia para mejorar los resultados a corto plazo y el liderazgo como habilitador de su implementación. Sin embargo, la innovación también puede ser vista como parte central del sistema de negocio, y las prácticas del liderazgo como facilitadores que permitan mejorar los resultados no sólo a corto, sino también a mediano y largo plazo. Con base en lo anterior, se realizó un estudio de caso en la campaña de AmeriTel en Teleperformance Colombia para analizar la asociación que tiene el liderazgo y la innovación con sus resultados, y cómo esta relación se refleja en la perdurabilidad de la campaña. De acuerdo a los hallazgos de la investigación, se puede observar el desempeño de una campaña que está enfocada en resultados, en cómo cambia la perspectiva y efectividad de todo el personal, pasando de la innovación de un nuevo modelo de gestión visto como estrategia, al mismo modelo visto como innovación dentro del modelo de negocio, el círculo del cambio y la aplicación de un liderazgo efectivo.