877 resultados para Logique linéaire
Resumo:
Le mouvement derridien de la différance marque la rupture avec l'affirmation de la métaphysique de la présence, avec l'autorité du signifié transcendantal. Dans cet univers mouvant de signifiants qui se renvoient perpétuellement les uns aux autres, la logique d'univocité se disloque. La "présence" n'est que fantomatique, s'esquissant au sein d'une chaîne ininterrompue de signifiants et se laissant toujours creuser par la marque d'un irréductible manque. Face au logocentrisme, corollaire de l'affirmation de la présence, l'écriture se veut siège et articulation de la trace, d'une origine qui ne peut être que raturée, véhicule d'une irrémédiable fêlure. La volet littéraire de la déconstruction a pour but de mettre en évidence le fonctionnement de l'"indécidabilité" du discours, soit une certaine ambivalence dans la signification qui caractérise tout texte. L'objectif principal de la présente recherche est de fournir une compréhension plus approfondie de la déconstruction en insistant sur l'ancrage langagier de tout texte. Le discours philosophique n'échappe ainsi pas au mécanisme différentiel du langage et de la dérive métaphorique. La parenté entre la perspective déconstructiviste derridienne et la conception mallarméenne du langage poétique semble frappante. La mise en oeuvre, par Mallarmé, d'une dislocation de l'espace textuel, son minutieux "creusement" du vers après renoncement à toute quête d'"Idéal", la mise en relief du leurre de l'appropriation langagière, voilà qui trouve un écho particulier dans les thèses derridiennes. La "mimésis" platonicienne se voit au travers du prisme de la "mimique" mallarméenne. La déconstruction poursuit son travail de "luxation" de l'oreille philosophique, insérant les philosophèmes dans la matrice langagière, les livrant ainsi au hasard du cheminement textuel et les confrontant à l'aporie. La philosophie n'a alors d'autre choix que d'abandonner ses prétentions transcendantales. La marche de la "différance" instaure une inexorable distance qui prive le sujet de tout rapport direct avec une origine assurée et lui ôte toute possibilité de maîtrise sur le monde. Au travers de la langue, se profile la question de l'altérité, de la relation dissymétrique qui nous lie à cet "autre", ce "tout-autre" qui nous fonde et nous constitue. L'accueil inconditionnel de cette altérité nous mènera à l'étude de la "religion", la déconstruction se tournant vers le "religieux" tout en effectuant un "retournement" habile de tout credo essentialiste.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.
Resumo:
Dans cette thèse, nous abordons le contrôle moteur du mouvement du coude à travers deux approches expérimentales : une première étude psychophysique a été effectuée chez les sujets humains, et une seconde implique des enregistrements neurophysiologiques chez le singe. Nous avons recensé plusieurs aspects non résolus jusqu’à présent dans l’apprentissage moteur, particulièrement concernant l’interférence survenant lors de l’adaptation à deux ou plusieurs champs de force anti-corrélés. Nous avons conçu un paradigme où des stimuli de couleur aident les sujets à prédire la nature du champ de force externe actuel avant qu’ils ne l’expérimentent physiquement durant des mouvements d’atteinte. Ces connaissances contextuelles faciliteraient l’adaptation à des champs de forces en diminuant l’interférence. Selon le modèle computationnel de l’apprentissage moteur MOSAIC (MOdular Selection And Identification model for Control), les stimuli de couleur aident les sujets à former « un modèle interne » de chaque champ de forces, à s’en rappeler et à faire la transition entre deux champs de force différents, sans interférence. Dans l’expérience psychophysique, quatre groupes de sujets humains ont exécuté des mouvements de flexion/extension du coude contre deux champs de forces. Chaque force visqueuse était associée à une couleur de l’écran de l’ordinateur et les deux forces étaient anti-corrélées : une force résistante (Vr) a été associée à la couleur rouge de l’écran et l’autre, assistante (Va), à la couleur verte de l’écran. Les deux premiers groupes de sujets étaient des groupes témoins : la couleur de l’écran changeait à chaque bloc de 4 essais, tandis que le champ de force ne changeait pas. Les sujets du groupe témoin Va ne rencontraient que la force assistante Va et les sujets du groupe témoin Vr performaient leurs mouvements uniquement contre une force résistante Vr. Ainsi, dans ces deux groupes témoins, les stimuli de couleur n’étaient pas pertinents pour adapter le mouvement et les sujets ne s’adaptaient qu’à une seule force (Va ou Vr). Dans les deux groupes expérimentaux, cependant, les sujets expérimentaient deux champs de forces différents dans les différents blocs d’essais (4 par bloc), associés à ces couleurs. Dans le premier groupe expérimental (groupe « indice certain », IC), la relation entre le champ de force et le stimulus (couleur de l’écran) était constante. La couleur rouge signalait toujours la force Vr tandis que la force Va était signalée par la couleur verte. L’adaptation aux deux forces anti-corrélées pour le groupe IC s’est avérée significative au cours des 10 jours d’entraînement et leurs mouvements étaient presque aussi bien ajustés que ceux des deux groupes témoins qui n’avaient expérimenté qu’une seule des deux forces. De plus, les sujets du groupe IC ont rapidement démontré des changements adaptatifs prédictifs dans leurs sorties motrices à chaque changement de couleur de l’écran, et ceci même durant leur première journée d’entraînement. Ceci démontre qu’ils pouvaient utiliser les stimuli de couleur afin de se rappeler de la commande motrice adéquate. Dans le deuxième groupe expérimental, la couleur de l’écran changeait régulièrement de vert à rouge à chaque transition de blocs d’essais, mais le changement des champs de forces était randomisé par rapport aux changements de couleur (groupe « indice-incertain », II). Ces sujets ont pris plus de temps à s’adapter aux champs de forces que les 3 autres groupes et ne pouvaient pas utiliser les stimuli de couleurs, qui n’étaient pas fiables puisque non systématiquement reliés aux champs de forces, pour faire des changements prédictifs dans leurs sorties motrices. Toutefois, tous les sujets de ce groupe ont développé une stratégie ingénieuse leur permettant d’émettre une réponse motrice « par défaut » afin de palper ou de sentir le type de la force qu’ils allaient rencontrer dans le premier essai de chaque bloc, à chaque changement de couleur. En effet, ils utilisaient la rétroaction proprioceptive liée à la nature du champ de force afin de prédire la sortie motrice appropriée pour les essais qui suivent, jusqu’au prochain changement de couleur d’écran qui signifiait la possibilité de changement de force. Cette stratégie était efficace puisque la force demeurait la même dans chaque bloc, pendant lequel la couleur de l’écran restait inchangée. Cette étude a démontré que les sujets du groupe II étaient capables d’utiliser les stimuli de couleur pour extraire des informations implicites et explicites nécessaires à la réalisation des mouvements, et qu’ils pouvaient utiliser ces informations pour diminuer l’interférence lors de l’adaptation aux forces anti-corrélées. Les résultats de cette première étude nous ont encouragés à étudier les mécanismes permettant aux sujets de se rappeler d’habiletés motrices multiples jumelées à des stimuli contextuels de couleur. Dans le cadre de notre deuxième étude, nos expériences ont été effectuées au niveau neuronal chez le singe. Notre but était alors d’élucider à quel point les neurones du cortex moteur primaire (M1) peuvent contribuer à la compensation d’un large éventail de différentes forces externes durant un mouvement de flexion/extension du coude. Par cette étude, nous avons testé l’hypothèse liée au modèle MOSAIC, selon laquelle il existe plusieurs modules contrôleurs dans le cervelet qui peuvent prédire chaque contexte et produire un signal de sortie motrice approprié pour un nombre restreint de conditions. Selon ce modèle, les neurones de M1 recevraient des entrées de la part de plusieurs contrôleurs cérébelleux spécialisés et montreraient ensuite une modulation appropriée de la réponse pour une large variété de conditions. Nous avons entraîné deux singes à adapter leurs mouvements de flexion/extension du coude dans le cadre de 5 champs de force différents : un champ nul ne présentant aucune perturbation, deux forces visqueuses anti-corrélées (assistante et résistante) qui dépendaient de la vitesse du mouvement et qui ressemblaient à celles utilisées dans notre étude psychophysique chez l’homme, une force élastique résistante qui dépendait de la position de l’articulation du coude et, finalement, un champ viscoélastique comportant une sommation linéaire de la force élastique et de la force visqueuse. Chaque champ de force était couplé à une couleur d’écran de l’ordinateur, donc nous avions un total de 5 couleurs différentes associées chacune à un champ de force (relation fixe). Les singes étaient bien adaptés aux 5 conditions de champs de forces et utilisaient les stimuli contextuels de couleur pour se rappeler de la sortie motrice appropriée au contexte de forces associé à chaque couleur, prédisant ainsi leur sortie motrice avant de sentir les effets du champ de force. Les enregistrements d’EMG ont permis d’éliminer la possibilité de co-contractions sous-tendant ces adaptations, étant donné que le patron des EMG était approprié pour compenser chaque condition de champ de force. En parallèle, les neurones de M1 ont montré des changements systématiques dans leurs activités, sur le plan unitaire et populationnel, dans chaque condition de champ de force, signalant les changements requis dans la direction, l’amplitude et le décours temporel de la sortie de force musculaire nécessaire pour compenser les 5 conditions de champs de force. Les changements dans le patron de réponse pour chaque champ de force étaient assez cohérents entre les divers neurones de M1, ce qui suggère que la plupart des neurones de M1 contribuent à la compensation de toutes les conditions de champs de force, conformément aux prédictions du modèle MOSAIC. Aussi, cette modulation de l’activité neuronale ne supporte pas l’hypothèse d’une organisation fortement modulaire de M1.
Resumo:
Cette thèse propose l’émergence d’une poésie de l’entre deux dans la littérature expérimentale, en suivant ses développements du milieu du vingtième siècle jusqu'au début du vingt-et-unième. Cette notion d’entre-deux poétique se fonde sur une théorie du neutre (Barthes, Blanchot) comme ce qui se situe au delà ou entre l'opposition et la médiation. Le premier chapitre retrace le concept de monotonie dans la théorie esthétique depuis la période romantique où il est vu comme l'antithèse de la variabilité ou tension poétique, jusqu’à l’émergence de l’art conceptuel au vingtième siècle où il se déploie sans interruption. Ce chapitre examine alors la relation de la monotonie à la mélancolie à travers l’analyse de « The Anatomy of Monotony », poème de Wallace Stevens tiré du recueil Harmonium et l’œuvre poétique alphabet de Inger Christensen. Le deuxième chapitre aborde la réalisation d’une poésie de l’entre-deux à travers une analyse de quatre œuvres poétiques qui revisitent l’usage de l’index du livre paratextuel: l’index au long poème “A” de Louis Zukofsky, « Index to Shelley's Death » d’Alan Halsey qui apparait à la fin de l’oeuvre The Text of Shelley's Death, Cinema of the Present de Lisa Robertson, et l’oeuvre multimédia Via de Carolyn Bergvall. Le troisième chapitre retrace la politique de neutralité dans la théorie de la traduction. Face à la logique oppositionnelle de l’original contre la traduction, il propose hypothétiquement la réalisation d’une troisième texte ou « l’entre-deux », qui sert aussi à perturber les récits familiers de l’appropriation, l’absorption et l’assimilation qui effacent la différence du sujet de l’écrit. Il examine l’oeuvre hybride Secession with Insecession de Chus Pato et Erin Moure comme un exemple de poésie de l’entre-deux. A la fois pour Maurice Blanchot et Roland Barthes, le neutre représente un troisième terme potentiel qui défie le paradigme de la pensée oppositionnelle. Pour Blanchot, le neutre est la différence amenée au point de l’indifférence et de l’opacité de la transparence tandis que le désire de Barthes pour le neutre est une utopie lyrique qui se situe au-delà des contraintes de but et de marquage. La conclusion examine comment le neutre correspond au conditions de liberté gouvernant le principe de créativité de la poésie comme l’acte de faire sans intention ni raison.
Resumo:
Les manifestations de crise, en Côte d'Ivoire, ont été extrêmement violentes. Au cours des quinze dernières années, plus de 400 personnes sont mortes, tuées dans des affrontements avec les forces de sécurités ou des contre-manifestants. Malgré la gravité du problème, peu d’études scientifiques y sont consacrées et les rares analyses et enquêtes existantes portent, de façon unilatérale, sur l’identité et la responsabilité pénale des auteurs et commanditaires putatifs de cette violence. La présente étude s’élève contre le moralisme inhérent à ces approches pour aborder la question sous l’angle de l’interaction : cette thèse a pour objectif de comprendre les processus et logiques qui sous-tendent l’usage de la violence au cours des manifestations. Le cadre théorique utilisé dans cette étude qualitative est l’interactionnisme symbolique. Le matériel d’analyse est composé d’entrevues et de divers documents. Trente-trois (33) entrevues semi-dirigées ont été réalisées avec des policiers et des manifestants, cooptés selon la technique de la boule de neige, entre le 3 janvier et le 15 mai 2013, à Abidjan. Les rapports d’enquête, de l’ONG Human Rights Watch, sur les manifestations de crise, les manuels de formation de la police et divers autres matériaux périphériques ont également été consultés. Les données ont été analysées suivant les principes et techniques de la théorisation ancrée (Paillée, 1994). Trois principaux résultats ont été obtenus. Premièrement, le système ivoirien de maintien de l'ordre est conçu selon le modèle d’une « police du prince ». Les forces de sécurité dans leur ensemble y occupent une fonction subalterne d’exécutant. Elles sont placées sous autorité politique avec pour mandat la défense inconditionnelle des institutions. Le style standard de gestion des foules, qui en découle, est légaliste et répressif, correspondant au style d’escalade de la force (McPhail, Schweingruber, & Carthy, 1998). Cette « police du prince » dispose toutefois de marges de manœuvre sur le terrain, qui lui permettent de moduler son style en fonction de la conception qu’elle se fait de l’attitude des manifestants : paternaliste avec les foules dites calmes, elle devient répressive ou déviante avec les foules qu’elle définit comme étant hostiles. Deuxièmement, à rebours d’une conception victimaire de la foule, la violence est une transaction situationnelle dynamique entre forces de sécurité et manifestants. La violence suit un processus ascendant dont les séquences et les règles d’enchainement sont décrites. Ainsi, le premier niveau auquel s’arrête la majorité des manifestations est celui d’une force non létale bilatérale dans lequel les deux acteurs, protestataires et policiers, ont recours à des armes non incapacitantes, où les cailloux des premiers répondent au gaz lacrymogène des seconds. Le deuxième niveau correspond à la létalité unilatérale : la police ouvre le feu lorsque les manifestants se rapprochent de trop près. Le troisième et dernier niveau est atteint lorsque les manifestants utilisent à leur tour des armes à feu, la létalité est alors bilatérale. Troisièmement, enfin, le concept de « l’indignité républicaine » rend compte de la logique de la violence dans les manifestations. La violence se déclenche et s’intensifie lorsqu’une des parties, manifestants ou policiers, interprète l’acte posé par l’adversaire comme étant en rupture avec le rôle attendu du statut qu’il revendique dans la manifestation. Cet acte jugé indigne a pour conséquence de le priver de la déférence rattachée à son statut et de justifier à son encontre l’usage de la force. Ces actes d’indignités, du point de vue des policiers, sont symbolisés par la figure du manifestant hostile. Pour les manifestants, l’indignité des forces de sécurité se reconnait par des actes qui les assimilent à une milice privée. Le degré d’indignité perçu de l’acte explique le niveau d’allocation de la violence.
Resumo:
L’adversité tôt dans la vie est associée au développement de symptômes anxieux pouvant perdurer jusqu’à l’âge adulte (Casey et el, 2010, Pine 2003). Des études chez l’adulte suggèrent que ces liens pourraient être associés à des altérations du « circuit de la peur » qui inclut l’amygdale, l’hippocampe antérieur, l’insula et le cortex préfrontal (Marek, 2013, Etkin & Wager, 2007). Ceci a cependant peu été étudié chez les jeunes. L’objectif principal de cette thèse était de définir les corrélats comportementaux, physiologiques, biologiques et neuronaux du traitement de la peur chez les jeunes en bonne santé, en lien ou non avec un historique d’adversité -- sous la forme de pratiques parentales coercitives -- et d’anxiété. D’abord, puisque nous nous intéressions aux pratiques parentales coercitives chroniques, nous avons examiné leur évolution et facteurs de risque, en nous concentrant sur la période de 17 à 72 mois. Un total de 2045 dyades mère-enfant ont été incluses dans une analyse de courbe de croissance latente. Nous avons démontré que la coercition maternelle suit une évolution non linéaire durant cette période et atteint un sommet à 42 mois. Les facteurs de risque relatifs à l’enfant et à la mère, mesurés à 17 mois, permettent de prédire les niveaux de coercition à 42 mois. Finalement, les prédicteurs relatifs à l’enfant et l’efficacité maternelle prédisent l’évolution des pratiques parentales coercitives entre 17 et 72 mois. Ensuite, afin de définir une méthodologie solide pour étudier le traitement de la peur chez des jeunes, nous avons adapté une tâche développée par Lau et ses collaborateurs (2008), employant des visages féminins comme stimuli. Le sexe des participants et des visages employés comme stimuli pouvant potentiellement moduler le traitement de la peur (Kret & de Gelder, 2012; McClure, 2000), nous avons étudié leurs influences respectives sur les réponses électrodermales et subjectives de peur durant le conditionnement et l’extinction de la peur chez 117 jeunes. Nous avons démontré que les stimuli féminins suscitent des réponses davantage comparables entre les garçons et les filles que les stimuli masculins. De plus, nous avons observé un effet du « même sexe », caractérisé par un conditionnement différentiel uniquement face aux stimuli du même sexe que le participant. Finalement, nous avons exploré les différences individuelles et conjointes associées aux différents niveaux de pratiques parentales coercitives et d’anxiété en termes de réponses de peur et d’activité cérébrale, durant le conditionnement et l’extinction de la peur chez 84 jeunes. Nous avons démontré que la coercition est spécifiquement associée au fonctionnement du lobe temporal médian et aux interactions entre l’amygdale et l’insula, durant le conditionnement. Durant l’extinction, les niveaux d’anxiété étaient associés à des différences spécifiques d’activation du gyrus cingulaire antérieur (GCA) dorsal. Enfin, les pratiques parentales coercitives et l’anxiété interagissent et viennent moduler la connectivité fonctionnelle amygdale - GCA rostral, l’activation d’une sous-région du GCA dorsal et les réponses subjectives de peur. Ces résultats ajoutent une pièce au casse-tête des neurosciences développementales et fournissent des pistes intéressantes pour le développement d’interventions futures.
Resumo:
Cette thèse examine l’interprétation et l’application, par l’Haute Cour d'Israël (HCJ), de principes du droit international de l’occupation et du droit international des droits de la personne dans le traitement de requêtes judiciaires formulées par des justiciables palestiniens. Elle s’intéresse plus particulièrement aux jugements rendus depuis le déclenchement de la deuxième Intifada (2000) suite à des requêtes mettant en cause la légalité des mesures adoptées par les autorités israéliennes au nom d’un besoin prétendu d’accroitre la sécurité des colonies et des colons israéliens dans le territoire occupé de la Cisjordanie. La première question sous étude concerne la mesure dans laquelle la Cour offre un recours effectif aux demandeurs palestiniens face aux violations alléguées de leurs droits internationaux par l’occupant. La recherche fait sienne la position de la HJC selon laquelle le droit de l’occupation est guidé par une logique interne tenant compte de la balance des intérêts en cause, en l’occurrence le besoin de sécurité de l’occupant, d’une part, et les droits fondamentaux de l’occupé, d’autre part. Elle considère, en outre, que cette logique se voit reflétée dans les principes normatifs constituant la base de ce corpus juridique, soit que l’occupation est par sa nature temporaire, que de l’occupation découle un rapport de fiduciaire et, finalement, que l’occupant n’acquiert point de souveraineté sur le territoire. Ainsi, la deuxième question qui est posée est de savoir si l’interprétation du droit par la Cour (HCJ) a eu pour effet de promouvoir ces principes normatifs ou, au contraire, de leur porter préjudice. La réunion de plusieurs facteurs, à savoir la durée prolongée de l’occupation de la Cisjordanie par Israël, la menace accrue à la sécurité depuis 2000 ainsi qu’une politique de colonisation israélienne active, soutenue par l’État, présentent un cas de figure unique pour vérifier l’hypothèse selon laquelle les tribunaux nationaux des États démocratiques, généralement, et ceux jouant le rôle de la plus haute instance judiciaire d’une puissance occupante, spécifiquement, parviennent à assurer la protection des droits et libertés fondamentaux et de la primauté du droit au niveau international. Le premier chapitre présente une étude, à la lumière du premier principe normatif énoncé ci-haut, des jugements rendus par la HCJ dans les dossiers contestant la légalité de la construction du mur à l’intérieur de la Cisjordanie et de la zone dite fermée (Seam Zone), ainsi que des zones de sécurité spéciales entourant les colonies. Le deuxième chapitre analyse, cette fois à la lumière du deuxième principe normatif, des jugements dans les dossiers mettant en cause des restrictions sur les déplacements imposées aux Palestiniens dans le but allégué de protéger la sécurité des colonies et/ou des colons. Le troisième chapitre jette un regard sur les jugements rendus dans les dossiers mettant en cause la légalité du tracé du mur à l’intérieur et sur le pourtour du territoire annexé de Jérusalem-Est. Les conclusions découlant de cette recherche se fondent sur des données tirées d’entrevues menées auprès d’avocats israéliens qui s’adressent régulièrement à la HCJ pour le compte de justiciables palestiniens.
Resumo:
L’évaluation de l’action humanitaire (ÉAH) est un outil valorisé pour soutenir l’imputabilité, la transparence et l’efficience de programmes humanitaires contribuant à diminuer les inéquités et à promouvoir la santé mondiale. L’EAH est incontournable pour les parties prenantes de programme, les bailleurs de fonds, décideurs et intervenants souhaitant intégrer les données probantes aux pratiques et à la prise de décisions. Cependant, l’utilisation de l’évaluation (UÉ) reste incertaine, l’ÉAH étant fréquemment menée, mais inutilisé. Aussi, les conditions influençant l’UÉ varient selon les contextes et leur présence et applicabilité au sein d’organisations non-gouvernementales (ONG) humanitaires restent peu documentées. Les évaluateurs, parties prenantes et décideurs en contexte humanitaire souhaitant assurer l’UÉ pérenne détiennent peu de repères puisque rares sont les études examinant l’UÉ et ses conditions à long terme. La présente thèse tend à clarifier ces enjeux en documentant sur une période de deux ans l’UÉ et les conditions qui la détermine, au sein d’une stratégie d’évaluation intégrée au programme d’exemption de paiement des soins de santé d’une ONG humanitaire. L’objectif de ce programme est de faciliter l’accès à la santé aux mères, aux enfants de moins de cinq ans et aux indigents de districts sanitaires au Niger et au Burkina Faso, régions du Sahel où des crises alimentaires et économiques ont engendré des taux élevés de malnutrition, de morbidité et de mortalité. Une première évaluation du programme d’exemption au Niger a mené au développement de la stratégie d’évaluation intégrée à ce même programme au Burkina Faso. La thèse se compose de trois articles. Le premier présente une étude d’évaluabilité, étape préliminaire à la thèse et permettant de juger de sa faisabilité. Les résultats démontrent une logique cohérente et plausible de la stratégie d’évaluation, l’accessibilité de données et l’utilité d’étudier l’UÉ par l’ONG. Le second article documente l’UÉ des parties prenantes de la stratégie et comment celle-ci servit le programme d’exemption. L’utilisation des résultats fut instrumentale, conceptuelle et persuasive, alors que l’utilisation des processus ne fut qu’instrumentale et conceptuelle. Le troisième article documente les conditions qui, selon les parties prenantes, ont progressivement influencé l’UÉ. L’attitude des utilisateurs, les relations et communications interpersonnelles et l’habileté des évaluateurs à mener et à partager les connaissances adaptées aux besoins des utilisateurs furent les conditions clés liées à l’UÉ. La thèse contribue à l’avancement des connaissances sur l’UÉ en milieu humanitaire et apporte des recommandations aux parties prenantes de l’ONG.
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
L’incertitude associée à une mesure a pour origine d’une part la variabilité environnementale et d’autre part l’ensemble du processus d’acquisition depuis le prélèvement jusqu’à la saisie de la donnée dans une base. L’estimation de l'ensemble de cette variabilité est un exercice complexe à réaliser dans le cadre d’un plan d’expérience. En revanche, les séries temporelles présentent la caractéristique d’intégrer toutes les variabilités et ainsi l’analyse de ces séries en terme de signal et bruit doit permettre de quantifier l’amplitude des incertitudes. Toutefois, les séries temporelles d’observation présentent un ensemble de caractéristiques les rendant difficiles à analyser. Les modèles linaires dynamiques constituent une approche adaptée à ces données particulières en faisant l’hypothèse de paramètres variables dans le temps. Ainsi, l’objet du présent travail consiste à estimer les variances liées au processus d’observation à l’aide de modèles linéaires dynamiques. Plus particulièrement, les mesures considérées sont la chlorophylle a et l’abondance phytoplanctonique aux lieux de surveillance REPHY « Arcachon-Bouée- 7 » et « Teychan bis ». Les résultats montrent que pour la chlorophylle a, la variabilité d’observation est responsable de l’ordre de 80 % de la variabilité totale. Pour l’abondance phytoplanctonique, elle est également de 80 % à « Arcachon-Bouée 7 » mais de l’ordre de 70 % à « Teychan bis ». Ainsi la part de « bruit » est liée au lieu et au paramètre considéré. Exprimée en pourcentage de la médiane de la chlorophylle a, la variance d’observation place les bornes de l’intervalle de confiance à 95 % des observations à des valeurs de l’ordre de -40 % et +120 % de la médiane, l’intervalle étant sous estimé car ne prenant pas en compte la variabilité structurelle. Pour l’abondance phytoplanctonique en log10 cell./L, les ordres de grandeur correspondant en pourcentage de la moyenne sont de ± 13.5 %. Pour les deux paramètres, ces valeurs sont compatibles avec l’expérience des experts. Ainsi, l’approche mise en oeuvre s’est avérée riche d’enseignements en matière d’incertitude de mesure et les nombreuses améliorations méthodologiques envisagées ouvrent des perspectives fécondes à tout point de vue.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.