986 resultados para Problème de Snell
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
L’objectif de ce mémoire est de porter un regard critique sur l’exposition du patrimoine culturel immatériel kanak, dernièrement proposée au musée du quai Branly. Ayant pour objet de corriger l’élitisme de l’eurocentrisme, le postcolonialisme est un courant de pensée qui vise à repositionner les acteurs et enjeux marginaux. Interdisciplinaire, le discours postcolonial suscite une pluralité de perspectives pour inclure la voix des « autres ». Dans notre étude, nous choisissons de traiter du propos dans un cadre singulier. Notre approche se consacrera à l’interprétation de l’ « autre » par le musée du quai Branly, de manière à comprendre comment, aujourd’hui, la particularité du patrimoine culturel kanak y est exposée. Ce mémoire se propose d’effectuer un retour sur la venue du quai Branly dans le cadre de quelques problèmes récurrents concernant la perception et le traitement de l’objet nonoccidental, retour qui semble nécessaire à l’établissement d’un bilan sur les pratiques expositionnelles du patrimoine culturel immatériel dans l’exposition « Kanak. L’art est une parole ». Pour ce faire, les enjeux soulevés seront abordés dans les perspectives de l’histoire de l’art, de l’anthropologie et de la muséologie. Par la muséographie qu’il met en place, le musée fait part au public de son parti-pris quant au discours didactique qu’il souhaite lui transmettre. Les choix effectués pour la mise en exposition et sa contextualisation expriment la définition que le musée donne aux objets qu’il contient. Le musée du quai Branly est un cas particulier. Promu au rang de musée d’ « art premier » à son ouverture, il expose des objets ethnographiques venus d’Afrique, d’Océanie, des Amériques ou encore d’Asie pour leurs qualités esthétiques. Loin de nos préceptes occidentaux, la difficulté de ce musée est de rendre compte de l’histoire de ces objets. L’exemple de l’expression artistique kanak soulève le fond du problème dans la mesure où elle prend forme à travers des ressources orales.
Resumo:
Située dans le discours actuel à la mode sur la diversité culturelle, l’objet de cette thèse consiste à comprendre l’orientation pratique d’une organisation internationale en matière de gestion de sa diversité culturelle interne. Il propose que, face aux changements qui ont modifié la configuration sociodémographique de la sphère organisationnelle, il serait intéressant de partir d’une organisation pour laquelle la diversité est une tradition tributaire de son fonctionnement. L’organisation sujet d’étude est internationale, affiliée à l’Unesco. Cette dernière étant reconnue pour son mandat qui valorise et protège les cultures. L’ancrage épistémologique de la thèse est bi-disciplinaire. Il considère deux champs théoriques sur lesquels se construit la diversité culturelle. Le premier est forgé dans les théories de management dites « occidentales » sur la diversité. Le deuxième champ, s’établit sur une approche dynamique de la culture apportée par les « Cross-Cultural Studies ». La méthodologie que nous avons mobilisée pour cette recherche est principalement qualitative. Elle est également diverse puisqu’elle veut identifier trois niveaux d’analyses. D’abord, l’étude historique réalisée se fonde sur l’analyse d’articles choisis tirés des archives de l’« organisation mère » (Unesco). Elle se veut être une étude exhaustive qui révèle l’évolution du discours « global » de cette organisation sur la diversité culturelle depuis sa création. Ensuite, afin de mieux comprendre le discours interne de l’Organisation sur la diversité culturelle, une analyse du contenu d’un « halo » de ses politiques internes a lieu. Elle nous permet de comprendre la valeur que prend la diversité culturelle dans son discours « organisationnel » dans la période de temps que nous traitons. Enfin, les histoires « individuelles » des acteurs de la diversité culturelle, apportent une description riche et, complètent l’analyse avec leurs interprétions des pratiques de gestions mises en place à leur égard. Des éléments de recherche sous adjacentes sont aussi amenés dans la thèse et font également partie du processus de l’analyse de la pratique de la diversité culturelle dans l’Organisation. En effet, la thèse se penche sur le problème conceptuel sur la « diversité culturelle ». Elle apporte des éclaircissements à la terminologie à travers l’analyse de ses différents emplois dans la littérature organisationnelle. Par ailleurs, elle clarifie la notion d’organisation internationale et propose une description du contexte unesquien défini par sa diversité culturelle interne. L’ensemble des niveaux examinés a permis de mettre en évidence une double constatation. D’une part, le paradoxe entre les trois niveaux. D’autre part, la neutralité des pratiques de gestion de la diversité culturelle pour les employés et la demande implicite de reconnaissance de leurs identités culturelles. Des recommandations sont proposées et des suggestions pour de recherches ultérieures sont formulées à la conclusion de la thèse.
Resumo:
Contexte : L’hypertension artérielle (HTA) est reconnue comme un important facteur de risque des maladies cardiovasculaires et de la mortalité prématurée. Les données montrent qu’un adulte sur 4 dans le monde souffrait d’hypertension en 2000 et ce chiffre serait en augmentation. Dans les pays africains, les estimations prévoient une progression plus rapide de la prévalence de l’HTA engendrant ainsi un problème additionnel à gérer pour le système de santé qui est toujours aux prises avec les maladies transmissibles. Les progrès économiques et l’urbanisation semblent entraîner des modifications des habitudes de vie dans ces pays qui seraient associés à une émergence des maladies non transmissibles, dont l’HTA. Le Burkina Faso, pays de l’Afrique de l’Ouest classé comme un pays à faibles revenus, aurait amorcé sa transition épidémiologique et il importe de faire un état sur les maladies non transmissibles en émergence. Afin de contribuer à la connaissance des aspects épidémiologiques de l’HTA au Burkina Faso, trois objectifs spécifiques ont été retenus pour la présente recherche : 1) Estimer la prévalence de l’HTA et identifier les facteurs associés dans la population rurale et la population semi-urbaine du Système de Surveillance démographique et de Santé de Kaya (Kaya HDSS) ; 2) Déterminer la différence de prévalence de l’HTA entre la zone lotie et la zone non lotie de la ville de Ouagadougou et identifier les facteurs associés ; 3) Déterminer la détection, le traitement, le contrôle de l’HTA et estimer la fréquentation des centres de santé par les personnes hypertendues nouvellement dépistées dans la population adulte du Centre Nord du Burkina Faso. Méthodologie : Le cadre de notre recherche est le Burkina Faso. Deux sites ont fait l’objet de nos investigations. Kaya HDSS, situé dans la région du Centre Nord du Burkina Faso a servi de site pour les enquêtes ayant permis l’atteinte du premier et du troisième objectif général. Une étude transversale a été menée en fin 2012 sur un échantillon aléatoire de 1645 adultes résidents du site. Un entretien suivi de mesures anthropométriques et de la pression artérielle (PA) ont été réalisés au domicile des participants. Toutes les personnes qui avaient une PA élevée (PA systolique ≥ 140 mm Hg et/ou PA diastolique ≥ 90 mm Hg) et qui n’avaient pas été diagnostiquées auparavant ont été référées à une formation sanitaire. Un second entretien a été réalisé avec ces personnes environ un mois après. Pour le second objectif général, c’est le système de surveillance démographique et de santé de Ouagadougou (Ouaga HDSS) qui a été retenu comme site. Ouaga HDSS couvre 5 quartiers de la zone nord de Ouagadougou. Une étude transversale a été réalisée en 2010 sur un échantillon aléatoire représentatif de la population adulte résidante du site (N = 2041). Des entretiens suivis de mesures anthropométriques et de la PA ont été réalisés durant l’enquête. Résultats : Notre premier article examine la prévalence de l’HTA et les facteurs associés en milieu rural et en milieu semi-urbain. Au total 1481 participants ont été dépistés et la prévalence totale pondérée était de 9,4 % (95 % IC : 7,3 % - 11,4 %) avec une grande différence entre le milieu semi-urbain et le milieu rural : un adulte sur 10 était hypertendu en milieu semi-urbain contre un adulte sur 20 en milieu rural. L’analyse multivariée nous a permis d’identifier l’âge avancé, le milieu semi-urbain et l’histoire familiale de l’HTA comme des facteurs de risque. Dans le deuxième article, nous avons déterminé la différence entre la zone lotie et la zone non lotie du milieu urbain en ce qui concerne l’HTA. Sur 2 041 adultes enquêtés, la prévalence totale est estimée à 18,6 % (95 % IC : 16,9 % - 20,3 %). Après ajustement avec l’âge, il n’y avait pas de différence de prévalence entre la zone lotie et la zone non lotie de la ville de Ouagadougou. Dans ce milieu urbain, l’obésité et l’inactivité physique sont confirmées comme des facteurs à risque. En plus des personnes âgées qui constituent un groupe à risque, les migrants venant du milieu rural et les veuves ont été identifiés comme des personnes à risque. Notre troisième article examine la détection, le traitement, le contrôle de l’HTA ainsi que la fréquentation des structures de santé par les personnes nouvellement dépistées hypertendues dans le milieu non urbain. Sur les 1481 participants à l’étude, 41 % n’avaient jamais mesuré leur PA. Sur les 123 participants (9,4 %) dépistés comme hypertendus, 26,8 % avaient déjà bénéficié d’un diagnostic et 75,8 % de ces derniers étaient sous traitement anti hypertensif. Parmi les participants sous traitement, 60 % (15 sur 25) avaient leur PA sous contrôle. Le suivi de 2 mois a permis de retrouver 72 des 90 personnes nouvellement dépistées. Seulement 50 % ont été en consultation et parmi ces derniers 76 % (28 personnes sur les 37) ont reçu une confirmation de leur hypertension. Conclusion : Notre recherche montre l’évolution de l’HTA en fonction du niveau d’urbanisation de la population. Même si les maladies infectieuses restent la priorité du système de santé, la lutte contre l’HTA doit s’inscrire dans un cadre général de lutte contre les maladies cardiovasculaires. Cette lutte doit être amorcée maintenant avant que des proportions inquiétantes ne soient atteintes. Des actions de prévention telles que la promotion de saines habitudes de vie, le dépistage de masse et un renforcement des capacités du système de soins sont à mettre en œuvre.
Resumo:
Cette thèse est divisée en cinq parties portant sur les thèmes suivants: l’interprétation physique et algébrique de familles de fonctions orthogonales multivariées et leurs applications, les systèmes quantiques superintégrables en deux et trois dimensions faisant intervenir des opérateurs de réflexion, la caractérisation de familles de polynômes orthogonaux appartenant au tableau de Bannai-Ito et l’examen des structures algébriques qui leurs sont associées, l’étude de la relation entre le recouplage de représentations irréductibles d’algèbres et de superalgèbres et les systèmes superintégrables, ainsi que l’interprétation algébrique de familles de polynômes multi-orthogonaux matriciels. Dans la première partie, on développe l’interprétation physico-algébrique des familles de polynômes orthogonaux multivariés de Krawtchouk, de Meixner et de Charlier en tant qu’éléments de matrice des représentations unitaires des groupes SO(d+1), SO(d,1) et E(d) sur les états d’oscillateurs. On détermine les amplitudes de transition entre les états de l’oscillateur singulier associés aux bases cartésienne et polysphérique en termes des polynômes multivariés de Hahn. On examine les coefficients 9j de su(1,1) par le biais du système superintégrable générique sur la 3-sphère. On caractérise les polynômes de q-Krawtchouk comme éléments de matrices des «q-rotations» de U_q(sl_2). On conçoit un réseau de spin bidimensionnel qui permet le transfert parfait d’états quantiques à l’aide des polynômes de Krawtchouk à deux variables et on construit un modèle discret de l’oscillateur quantique dans le plan à l’aide des polynômes de Meixner bivariés. Dans la seconde partie, on étudie les systèmes superintégrables de type Dunkl, qui font intervenir des opérateurs de réflexion. On examine l’oscillateur de Dunkl en deux et trois dimensions, l’oscillateur singulier de Dunkl dans le plan et le système générique sur la 2-sphère avec réflexions. On démontre la superintégrabilité de chacun de ces systèmes. On obtient leurs constantes du mouvement, on détermine leurs algèbres de symétrie et leurs représentations, on donne leurs solutions exactes et on détaille leurs liens avec les polynômes orthogonaux du tableau de Bannai-Ito. Dans la troisième partie, on caractérise deux familles de polynômes du tableau de Bannai-Ito: les polynômes de Bannai-Ito complémentaires et les polynômes de Chihara. On montre également que les polynômes de Bannai-Ito sont les coefficients de Racah de la superalgèbre osp(1,2). On détermine l’algèbre de symétrie des polynômes duaux -1 de Hahn dans le cadre du problème de Clebsch-Gordan de osp(1,2). On propose une q - généralisation des polynômes de Bannai-Ito en examinant le problème de Racah pour la superalgèbre quantique osp_q(1,2). Finalement, on montre que la q -algèbre de Bannai-Ito sert d’algèbre de covariance à osp_q(1,2). Dans la quatrième partie, on détermine le lien entre le recouplage de représentations des algèbres su(1,1) et osp(1,2) et les systèmes superintégrables du deuxième ordre avec ou sans réflexions. On étudie également les représentations des algèbres de Racah-Wilson et de Bannai-Ito. On montre aussi que l’algèbre de Racah-Wilson sert d’algèbre de covariance quadratique à l’algèbre de Lie sl(2). Dans la cinquième partie, on construit deux familles explicites de polynômes d-orthogonaux basées sur su(2). On étudie les états cohérents et comprimés de l’oscillateur fini et on caractérise une famille de polynômes multi-orthogonaux matriciels.
Resumo:
Les défis associés au phénomène du vieillissement démographique de la population se manifestent sous plusieurs formes et à de nombreux égards. Il y a des questions générales comme celles qui touchent l’économique et d’autres, plus spécifiques et situées, comme celles des modalités assurant des services et des soins adéquats aux personnes vulnérables. Par exemple, le colloque « La qualité de l’expérience des usagers et des proches : vers la personnalisation des soins et des services sociaux », programmé dans le cadre des Entretiens Jacques Cartier à l’automne 2014, s’était donné comme objectif d’examiner l’expérience personnelle des usagers relativement aux prestations de soins de santé et à l’organisation des services sociaux. L’origine de ces réflexions réside dans la nécessité de trouver un meilleur équilibre des pouvoirs dans les relations d’aide ou la prestation de soin. Cette problématique sous-entend l’idée de rendre les usagers capables d’un certain contrôle par l’adoption d’approches permettant aux professionnels de faire des ajustements personnalisés. Cette thèse de doctorat s’inscrit directement dans le prolongement de cette problématique. La recherche vise à examiner les conditions en mesure de rendre possible, dans les Centres d’hébergement et de soins de longue durée (CHSLD), un rapport au monde catégorisé par ce que le sociologue Laurent Thévenot nomme le régime de la familiarité. Le régime de la familiarité fait référence aux réalités où l’engagement des personnes se déploie dans l’aisance. Autrement dit, ce régime d’engagement correspond à un rapport au milieu où la personne est en mesure de déployer ses habitudes, d’habiter le moment et de se sentir chez elle. Comme le montre Thévenot, ce type d’engagement commande la conception d’un monde qui offre aux personnes la possibilité d’articuler les modalités de leurs actions sur des repères qui font sens personnellement pour eux. Ainsi, l’objet de la recherche consiste à mieux comprendre la participation du design à la conception d’un milieu d’hébergement capable d’accueillir ce type d’engagement pragmatique. Les orientations associées à la conception de milieux d’hébergement capables de satisfaire de telles exigences correspondent largement aux ambitions qui accompagnent le développement des approches du design centrées sur l’usager, du design d’expériences et plus récemment du design empathique. Cela dit, malgré les efforts investis en ce sens, les capacités d’appropriation des usagers restent un problème pour lequel les réponses sont précaires. La thèse interroge ainsi le fait que les développements des approches de design, qui ont fait de l’expérience des usagers une préoccupation de premier plan, sont trop souvent restreints par des questions de méthodes et de procédures. Le développement de ces connaissances se serait fait au détriment de l’examen précis des savoir-être également nécessaires pour rendre les designers capables de prendre au sérieux les enjeux associés aux aspirations de ces approches. Plus spécifiquement, la recherche précise les qualités de l’expérience des établissements dont le design permet l’engagement en familiarité. L’enquête s’appuie sur une analyse des jugements posés par des équipes d’évaluation de la qualité du milieu de vie des CHSLD présents sur le territoire Montréalais. L’analyse a mené à la caractérisation de cinq qualités : l’accueillance, la convivialité, la flexibilité, la prévenance et la stabilité. Finalement, sous la forme d’un essai réflexif, un tableau de savoir-être est suggéré comme manière de rendre les designers capables de mettre en œuvre des milieux d’hébergement présentant les qualités identifiées. Cet essai est également l’occasion du développement d’un outil réflexif pour une pédagogie et une pratique vertueuse du design.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.
Resumo:
La précision des critères d’application du principe de subsidiarité et le développement de son contrôle par les institutions politiques constituent un progrès vers un plus grand respect de ce principe ; ces avancées restent néanmoins insuffisantes à en prévenir toute violation. En droit canadien, le problème est similaire, la précision des critères de la clause Paix, Ordre et Bon Gouvernement et de la clause de commerce, si utile qu’elle soit, ne permet pas d’éviter tout conflit de loi. L’étude de la jurisprudence de la Cour de Justice montre ses réticences à procéder à un contrôle allant au-delà de la recherche d’une motivation formelle de la nécessité de l’intervention européenne. Pourtant, la comparaison de la capacité à agir des différents niveaux de gouvernements, capacité à agir évoluant dans le temps, ne peut se faire sans référence au contexte d’application de la norme. La Cour de Justice pourrait comme la Cour Suprême du Canada, expliciter dans ses décisions son appréciation de la capacité à agir de chaque niveau de gouvernement. La subsidiarité éclaire sous un jour nouveau la clause de commerce ou la doctrine de l’intérêt national, jusqu’alors parfois perçues comme permettant un développement constant et unilatéral des compétences fédérales au détriment de celles des provinces. L’efficacité du contrôle du principe de subsidiarité ne dépend pas seulement de la Cour qui le met en œuvre mais peut aussi dépendre des institutions politiques l’ayant saisi, de l’argumentation des requérants en particuliers.
Resumo:
Au Québec, comme ailleurs en Occident, de plus en plus de personnes sont confrontées à une expérience de souffrance et d’exclusion qui les renvoie à la marge de la société. Cette thèse permet de saisir comment des personnes qui ont vécu une importante situation d'exclusion, entre autres, en raison de leur problème de santé mentale, en arrivent à se reconnaître comme des citoyennes en s'engageant dans leur communauté. Elle amène aussi à comprendre par quel cheminement ou parcours elles sont passées pour en arriver à s'émanciper des limites et contraintes qui pesaient sur elles. Enfin, elle éclaire le rôle joué par la participation à l'intérieur de leur parcours. Menée dans une perspective interdisciplinaire, cette recherche s’alimente de plusieurs courants théoriques tels que la sociologie, la psychanalyse, la science politique et le travail social. La notion de parcours d’émancipation permet de « s’émanciper » du modèle biomédical dominant en santé mentale en présentant une vision sociopolitique intégrant les dimensions individuelle et collective du changement. Elle amène à comprendre la constitution du « sujet-acteur » aux plans personnel et politique, c’est-à-dire le sujet qui advient par le travail de l’individu sur lui-même lui permettant de faire rupture avec son histoire passée et de la reconfigurer de manière à lui donner un nouveau sens, et l’acteur qui vient concrétiser la manifestation du sujet en actes, donc, la façon dont il s’actualise. La recherche met en évidence l’apport des organismes communautaires en santé mentale à ces parcours d’émancipation en identifiant les valeurs qui les animent et les dispositifs mis en place pour soutenir la transformation des personnes dans l’ensemble des dimensions de leur être : rapport à la « maladie », à soi, aux autres et au monde. En s’inspirant de Winnicott, on constate qu’ils constituent des espaces potentiels ou transitionnels qui donnent un ancrage sécuritaire et profond et qui jouent le rôle de « passeur d’être » permettant au sujet de s’actualiser et de devenir autonome. Ils apportent aussi une importante contribution à la réalisation des valeurs démocratiques et offrent des occasions aux personnes de se manifester en tant que « sujets-citoyens ».
Resumo:
La naissance avant terme constitue un important problème de santé périnatale partout dans le monde. Chaque année près de 15 millions de bébés naissent prématurément. Notre laboratoire s’intéresse depuis une décennie à la conception et le développement de nouvelles classes thérapeutiques (appelés agents tocolytiques) capables d’inhiber les contractions utérines et prolonger le temps de gestation. Due à son implication directe dans le déclanchement des contractions utérines, la prostaglandine F2α (FP) est devenue notre cible de choix. Le PDC 113.824 et aza-glycinyl-proline sont apparus comme des inhibiteurs allostériques puissants du récepteur de la prostaglandine F2α, capables de prolonger la durée de gestation chez les souris. Le travail réalisé au cours de ce mémoire a pour objectif d’étudier le tour β nécessaire pour la reconnaissance sur le récepteur de la prostaglandine F2α. Dans la conception de mime peptidique sélectif efficace et puissant, le repliement β est un élément structural essentiel pour le maintien ou l’amélioration de l’activité du mime peptidique. Les études conformationelles du PDC113.824 et l’aza-glycinyl-proline montrent que les squelettes centraux de ces mimes peptidiques pourraient adopter essentiellement un tour β de type I ou II`, ce qui suggère l’implication des deux types de tours dans l’activité biologique. La synthèse de mimes peptidiques adoptant le tour β de type I et II` est devenue une stratégie logique dans la recherche de nouveaux agents tocolytiques. Au cours de ces études quatre analogues du PDC113.824 ont été synthétisés, un azabicyclo[5.3.0]alkanone et un dipeptide macrocyclique (mimes du tours β de type I) pour étudier l’implication du tour β type I. Par la suite la synthèse de glycinyl-proline et le D-alaninyl-proline (des mimes du tour β du type II`) a été réalisée afin de valider l’implication du tour β type II` dans la reconnaissance sur le récepteur. Nous avons utilisé une stratégie de synthèse efficace pour obtenir les deux analogues (azabicyclo [5.3.0]alkanone et dipeptides macrocycles) à partir d’un intermédiaire commun, en procédant par une cyclisation transannulaire diastéréosélective du tétra-peptide.
Resumo:
Essai doctoral présenté à la Faculté des Arts et des Sciences en vue de l’obtention du grade de Doctorat en Psychologie option clinique (D.Psy.)
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
En archéologie, l’identification des identités culturelles spécifiques pose souvent problème. Cependant, lorsqu’on en arrive à la fin de la Paléohistoire et plus particulièrement au cours de la Protohistoire, les vestiges archéologiques trouvent alors des alliées sous la forme de sources littéraires et iconographiques qui documentent tant bien que mal la géographie humaine de l’époque. Sur le bassin hydrographique de la rivière Saguenay, quelques-unes de ces mentions révèlent que se trouvaient au cours de la Protohistoire un certain nombre de groupes distincts parmi lesquels des Iroquoiens du Saint-Laurent, des Montagnais de Tadoussac, des Kakouchacks et autres groupes du Nord. Les vestiges archéologiques des 393 sites archéologiques qui comptent au moins une composante de la Protohistoire ou de la Paléohistoire récente sur le bassin hydrographique de la rivière Saguenay ont été mis à contribution afin de déterminer si ce qui est mentionné où illustré dans les documents historiques est vérifiable du point de vue archéologique. Que ce soit les vestiges céramiques, lithiques, ostéologiques ou autres, ceux-ci ont en effet révélé certaines tendances qui ne peuvent s’expliquer que par des trames culturelles spécifiques. Après avoir constaté la présence de cette mosaïque culturelle au cours de la Protohistoire, le défi était de déterminer depuis quand celle-ci s’était mise en place et surtout d’en identifier les causes. Si l’environnement très variable qui caractérise le bassin hydrographique de la rivière Saguenay (incluant le lac Saint-Jean) a certes joué un rôle, d’autres événements ou comportements ont assurément contribué à diversifier les populations. Parmi ceux-ci, il y a la provenance des populations qui fréquentaient la rivière et ses affluents, les axes de circulations qu’ils empruntaient dans le cadre de leur cycle saisonnier, de même que le contexte des échanges qui se pratiquaient à l’échelle pan-bassin hydrographique. Tous ces aspects ont assurément joué un rôle dans la détermination de ce qu’était une population des basses terres du lac Saint-Jean versus une population du Bas-Saguenay.
Resumo:
Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.