26 resultados para Outils préhistoriques
em Université Laval Mémoires et thèses électroniques
Resumo:
Cette thèse est une réflexion originale sur le droit international dans la crise, car elle aborde le droit international grâce à une théorie peu connue en droit, celle des systèmes dynamiques complexes. L’étude du cas particulier de la gestion normative de la crise par le Conseil de sécurité illustre les intérêts de l’utilisation d’une théorie novatrice en droit. La théorie des systèmes dynamiques complexes offre les outils d’une réflexion sur le droit, fondée sur les interactions du droit avec le contexte particulier dans lequel il intervient, la crise, et ses acteurs. La mise en lumière de ces interactions favorise une lecture critique du droit international dans la crise et permet de renouveler l’ontologie de ce droit. Les dynamiques complexes appréhendées et définies par cette théorie sont utiles lorsqu’il s’agit d’expliquer les atouts et les limites de l’action normative du Conseil. Par ailleurs en renouvellant l’ontologie du droit, la théorie des systèmes dynamiques complexes facilite une lecture prospective de l’action normative du Conseil et insiste sur le rôle institutionnel du droit.
Resumo:
Les procédures appliquées avant l’abattage des animaux influencent directement la qualité de la viande en modulant l’état physiologique des porcs; ainsi, l’augmentation de la température corporelle, les taux élevés de lactate sanguin et l’épuisement des réserves de glycogène entre autres, occasionnent la majorité des baisses de qualité. L’objectif de cette thèse était de valider des outils indicateurs de stress porcin pour les fermes et les abattoirs. Ceux-ci seraient appliqués à la surveillance du bien-être animal et à la prédiction de variation de qualité de la viande porcine au niveau commercial. Premierement, les résultats de la thèse ont permis de conclure qu’un des outils développés (analyseur portatif de lactate) mesure la variation du niveau de lactate sanguin associé à l’état physiologique des porcs dans la phase péri-mortem et aide à expliquer la variation de la qualité de la viande chez le porc à l’abattoir, en particulier dans les muscles du jambon. Deuxièmement, les résultats des audits du bien-être animal appliqués de la ferme à l’abattoir ont démontré que la qualité du système d’élevage à la ferme d’origine et les compétences du chauffeur de camion sont d’importants critères affectant la réponse comportementale des porcs à la manipulation avant l’abattage. Ces résultats ont également démontré que les conditions de logement à la ferme (la faible densité et l’enrichissement dans les enclos), le comportement des porcs en période pré-abattage (glissade), ainsi que les interventions du manipulateur (utilisation du bâton électrique) dans la zone d’étourdissement de l’abattoir affectent négativement la variation de la qualité de la viande. L’application des protocoles d’audits dans la filière porcine a également démontré que le respect des critères de bien-être animal fixés par un outil de vérification est primordiale et permet de contrôler les conditions de bien-être des porcs à chaque étape de la période pré-abattage, de produire une viande de qualité supérieure et de réduire les pertes. Les audits de bien-être animal sont donc un outil qui apporte des resultats très pertinents pour aider a éviter les variations de la qualité de la viande chez le porc. Troisièmement, la thermographie infrarouge s’est avéré être une technique prometteuse permettant d’évaluer la variation de température corporelle de l’animal pendant et après un stress physique, en particulier lorsque cette mesure est prise derrière les oreilles. En conclusion, les outils validés à travers cette thèse représentent des méthodologies non invasives et potentiellement complémentaires à d’autres approches d’évaluation de l’état physiologique et du bien-être animal par rapport au stress, permettant de réduire les pertes de qualité de viande (par exemple en utilisation conjointe avec le niveau de lactate sanguin et les indicateurs de stress comportemental, entre autres).
Resumo:
Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.
Resumo:
Les concentrés de protéines de lait sont couramment utilisés comme ingrédients lors de la standardisation du lait de fromagerie. La concentration des protéines est généralement réalisée par ultrafiltration (UF) à l’aide de membranes polymériques ayant un seuil de coupure de 10 kDa, et ce, jusqu’à un facteur de concentration volumique de 3.5X. Dans l’optique d’améliorer l’efficience du procédé d’UF, l’étude avait pour but de caractériser l’impact du mode opératoire (pression transmembranaire constante (465 et 672 kPa) et flux constant) ainsi que la température (10°C et 50°C) sur la performance du système jusqu’à un facteur de concentration volumique de 3.6X. Le module de filtration à l’échelle pilote comprenait une membrane d’UF en polyéthersulfone de 10 kDa d’une surface de 2,04 m2. La performance du système a été caractérisée sur le flux de perméation, la sélectivité et la consommation énergétique totale. L’étude a montré que le flux de perméation était 1,9 fois plus élevé à une température de 50°C comparativement à 10°C lors de l’UF du lait. Le coefficient de rejet des protéines n’a pas été affecté significativement par la pression transmembranaire et la température (P< 0,05). L’effet de la température a été observé au niveau de la teneur en calcium, laquelle était plus élevée de 12% dans les rétentats générés à 50C. La consommation énergétique totale du système d’UF était plus élevée à 10C comparativement à 50C, représentant 0,32±0,02 et 0,26±0,04 kWh/kg rétentat respectivement. Les résultats montrent que le ratio d’efficience énergétique (rapport entre le flux de perméation et la consommation énergétique) optimal a été obtenu à faible pression transmembranaire constante et à 50C. L’approche développée dans le cadre de ce projet fournira des outils aux industriels laitiers pour améliorer l’éco-efficience de leurs procédés de séparation baromembranaire.
Resumo:
Les besoins toujours croissants en terme de transfert de données numériques poussent au développement de nouvelles technologies pour accroître la capacité des réseaux, notamment en ce qui concerne les réseaux de fibre optique. Parmi ces nouvelles technologies, le multiplexage spatial permet de multiplier la capacité des liens optiques actuels. Nous nous intéressons particulièrement à une forme de multiplexage spatial utilisant le moment cinétique orbital de la lumière comme base orthogonale pour séparer un certain nombre de canaux. Nous présentons d’abord les notions d’électromagnétisme et de physique nécessaires à la compréhension des développements ultérieurs. Les équations de Maxwell sont dérivées afin d’expliquer les modes scalaires et vectoriels de la fibre optique. Nous présentons également d’autres propriétés modales, soit la coupure des modes, et les indices de groupe et de dispersion. La notion de moment cinétique orbital est ensuite introduite, avec plus particulièrement ses applications dans le domaine des télécommunications. Dans une seconde partie, nous proposons la carte modale comme un outil pour aider au design des fibres optiques à quelques modes. Nous développons la solution vectorielle des équations de coupure des modes pour les fibres en anneau, puis nous généralisons ces équations pour tous les profils de fibres à trois couches. Enfin, nous donnons quelques exemples d’application de la carte modale. Dans la troisième partie, nous présentons des designs de fibres pour la transmission des modes avec un moment cinétique orbital. Les outils développés dans la seconde partie sont utilisés pour effectuer ces designs. Un premier design de fibre, caractérisé par un centre creux, est étudié et démontré. Puis un second design, une famille de fibres avec un profil en anneau, est étudié. Des mesures d’indice effectif et d’indice de groupe sont effectuées sur ces fibres. Les outils et les fibres développés auront permis une meilleure compréhension de la transmission dans la fibre optique des modes ayant un moment cinétique orbital. Nous espérons que ces avancements aideront à développer prochainement des systèmes de communications performants utilisant le multiplexage spatial.
Resumo:
Ce mémoire de maîtrise présente les résultats de l’analyse ergonomique centrée sur l’activité de quatre préposées aux bénéficiaires (PAB) travaillant dans trois centres d’hébergement et de soins de longue durée (CHSLD) et ayant reçu la formation à l’approche relationnelle de soins (ARS). L’hypothèse spécifique de ce projet est que des facteurs de l’environnement de travail des PAB influencent la mise en œuvre des principes enseignés lors de la formation à l’ARS. Pour ce faire, une étude de cas en profondeur par observation in situ a été réalisée auprès de quatre PAB. 44 soins d’hygiène en ont été extraits, puis analysés à l’aide d’une grille d’objectivation de l’ARS. Des entretiens post-soin semi structurés ont été réalisés avec chaque PAB, afin de recueillir leur perception du soin réalisé. Des entretiens d’autoconfrontation ont complété l’étude. Les résultats montrent que les éléments de l’ARS les plus souvent mis en œuvre sont principalement reliés à la création de la bulle relationnelle et la communication alors que ceux qui sont les moins souvent mis en œuvre concernent le toucher et le maintien des capacités du résident. La connaissance préalable du résident ressort comme un facteur-clé facilitant la mise en œuvre de l’ARS. Les PAB se soucient toujours de l’environnement physique, mais elles le perçoivent comme un facteur nuisible à l’ARS, dont elles doivent se préoccuper continuellement. Les contraintes temporelles perçues constituent pour certaines une entrave à la mise en œuvre de l’ARS, alors que pour celles qui ont intégré l’ARS dans leur quotidien, elle leur permet de gagner du temps. Notre étude comporte toutefois certaines limites. Ainsi, certains éléments de la grille n’ont pu être évalués étant donné le non accès aux dossiers des résidents. La grille d’objectivation et le questionnaire post-soin se sont parfois avérés imprécis; les verbalisations des PAB ont alors permis d’éclaircir les résultats bruts. Les outils pourraient être plus sensibles à la mise en œuvre de l’ARS dans le travail réel.
Resumo:
Le journalisme politique au Québec et ailleurs dans le monde est en pleine mutation. L’arrivée de nouvelles technologies appelle les organisations de presse à revoir leurs façons de faire de l’information. L’émergence de nouveaux concepts et de nouveaux enjeux incitent les journalistes à modifier leurs pratiques. La médiatisation et les théories du cadrage deviennent donc des outils d’interprétation des nouvelles façons de faire la couverture de divers enjeux. Ce mémoire s’intéresse plus spécifiquement à la médiatisation de la mise en place de la commission d’enquête sur l’industrie de la construction au Québec entre 2009 et 2012. Il répond à deux principales questions de recherche. Quel type de cadrage a été majoritairement été utilisé, celui principalement centré sur les enjeux ou celui centré sur les stratégies? Quelle place prend la thématique de la transparence dans le cadre du débat sur la mise en place de la commission d’enquête sur l’industrie de la construction? Une analyse de contenu médiatique des trois principaux quotidiens québécois, sur un peu plus de 3 ans, permet d’offrir quelques réponses et pistes de réflexions. Notamment, elle nous a permis de conclure que le recours aux cadres stratégiques est majoritaire et que cela se constate d’autant plus dans les articles d’opinion. L’analyse ne nous permet cependant pas d’établir de manière statistique cette deuxième conclusion. Finalement, la majorité des références à la thématique de la transparence au cours du débat sur la mise en place d’une commission d’enquête ont été faites sous l’angle du manque de volonté des acteurs gouvernementaux. Ce mémoire conclut avec quelques questionnements sur la qualité de l’information, les modifications de la pratique journalistique, le cynisme qu’amène le recours aux cadres centrés sur les stratégies et son impact sur la démocratie et les citoyens.
Resumo:
Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.
Resumo:
Les problématiques de surplus de poids sont en augmentation depuis les dernières décennies, notamment chez les jeunes québécois. Cette augmentation est en lien avec des habitudes alimentaires présentant des différences importantes avec les recommandations nutritionnelles. De plus, le gouvernement provincial a instauré des changements importants au Programme de formation de l’école québécoise afin de stimuler l’adoption de saines habitudes de vie. Afin de contrer ces problématiques de surplus de poids et d’habitudes alimentaires déficientes et de poursuivre dans la lignée de la réforme scolaire, le Nutriathlon en équipe version Web a été développé. Ce programme a pour but d’amener chaque participant à améliorer la qualité de son alimentation en augmentant et en diversifiant sa consommation de légumes, de fruits et de produits laitiers. Les objectifs de la présente étude sont (1) d’évaluer l’impact du programme sur la consommation de légumes, de fruits (LF) et de produits laitiers (PL) d’élèves du secondaire et (2) d’évaluer les facteurs influençant la réussite du programme chez ces jeunes. Les résultats de l’étude ont démontré que pendant le programme ainsi qu’immédiatement après, le groupe intervention a rapporté une augmentation significative de la consommation de LF et de PL par rapport au groupe contrôle. Par contre, aucun effet n’a pu être observé à moyen terme. Quant aux facteurs facilitant le succès du Nutriathlon en équipe, les élèves ont mentionné : l’utilisation de la technologie pour la compilation des portions, la formation d’équipes, l’implication des enseignants et de l’entourage familial ainsi que la création de stratégies pour faciliter la réussite du programme. Les élèves ont également mentionné des barrières au succès du Nutriathlon en équipe telles que le manque d’assiduité à saisir leurs données en dehors des heures de classe, la dysfonction du code d’utilisateur et l’incompatibilité de la plateforme avec certains outils technologiques comme les tablettes.
Proposition de nouvelles fonctionnalités WikiSIG pour supporter le travail collaboratif en Geodesign
Resumo:
L’émergence du Web 2.0 se matérialise par de nouvelles technologies (API, Ajax…), de nouvelles pratiques (mashup, geotagging…) et de nouveaux outils (wiki, blog…). Il repose principalement sur le principe de participation et de collaboration. Dans cette dynamique, le Web à caractère spatial et cartographique c’est-à-dire, le Web géospatial (ou GéoWeb) connait lui aussi de fortes transformations technologiques et sociales. Le GéoWeb 2.0 participatif se matérialise en particulier par des mashups entre wikis et géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). Les nouvelles applications nées de ces mashups évoluent vers des formes plus interactives d’intelligence collective. Mais ces applications ne prennent pas en compte les spécificités du travail collaboratif, en particulier la gestion de traçabilité ou l’accès dynamique à l’historique des contributions. Le Geodesign est un nouveau domaine fruit de l’association des SIG et du design, permettant à une équipe multidisciplinaire de travailler ensemble. Compte tenu de son caractère émergent, le Geodesign n’est pas assez défini et il requiert une base théorique innovante, de nouveaux outils, supports, technologies et pratiques afin de s’adapter à ses exigences complexes. Nous proposons dans cette thèse de nouvelles fonctionnalités de type WikiSIG, bâties sur les principes et technologies du GéoWeb 2.0 et visant en particulier à supporter la dimension collaborative du processus de Geodesign. Le WikiSIG est doté de fonctionnalités wiki dédiées à la donnée géospatiale (y compris dans sa composante géométrique : forme et localisation) permettant d’assurer, de manière dynamique, la gestion documentée des versions des objets et l’accès à ces versions (et de leurs métadonnées), facilitant ainsi le travail collaboratif en Geodesign. Nous proposons également la deltification qui consiste en la capacité de comparer et d’afficher les différences entre deux versions de projets. Finalement la pertinence de quelques outils du géotraitement et « sketching » est évoquée. Les principales contributions de cette thèse sont d’une part d’identifier les besoins, les exigences et les contraintes du processus de Geodesign collaboratif, et d’autre part de proposer des nouvelles fonctionnalités WikiSIG répondant au mieux à la dimension collaborative du processus. Pour ce faire, un cadre théorique est dressé où nous avons identifié les exigences du travail collaboratif de Geodesign et proposé certaines fonctionnalités WikiSIG innovantes qui sont par la suite formalisés en diagrammes UML. Une maquette informatique est aussi développée de façon à mettre en oeuvre ces fonctionnalités, lesquelles sont illustrées à partir d’un cas d’étude simulé, traité comme preuve du concept. La pertinence de ces fonctionnalités développées proposées est finalement validée par des experts à travers un questionnaire et des entrevues. En résumé, nous montrons dans cette thèse l’importance de la gestion de la traçabilité et comment accéder dynamiquement à l’historique dans un processus de Geodesign. Nous proposons aussi d’autres fonctionnalités comme la deltification, le volet multimédia supportant l’argumentation, les paramètres qualifiant les données produites, et la prise de décision collective par consensus, etc.
La promotion de la saine alimentation chez des femmes à risque de développer du diabète gestationnel
Resumo:
L’objectif général de la thèse est d’identifier des moyens novateurs afin de promouvoir la saine alimentation, soit la consommation de fruits et légumes, chez des femmes à risque de développer du diabète gestationnel. L’Intervention Mapping a servi de cadre pour planifier les étapes nécessaires au développement de l’intervention. Pour atteindre l’objectif de la thèse, quatre projets de recherche distincts, mais complémentaires ont été réalisés. Le premier projet de recherche impliquait d’effectuer une revue systématique sur la validation des mesures auto-déclarées de l’alimentation durant la grossesse. L’objectif était de recenser les méthodes utilisées pour mesurer l’alimentation durant la grossesse et de vérifier leurs qualités psychométriques pour identifier les outils à privilégier pour évaluer l’alimentation des femmes enceintes. L’objectif du deuxième projet de recherche était de valider un court questionnaire sur la consommation de fruits et légumes chez des femmes enceintes. Le troisième projet était une recherche formative dont l’objectif était de développer le contenu d’un questionnaire utilisant l’activation des intentions pour favoriser la consommation de fruits et légumes chez des femmes à risque de développer du diabète gestationnel. L’objectif du quatrième projet de recherche était d’évaluer l’efficacité d’une intervention de type activation des intentions comparativement à un groupe contrôle utilisant l’effet question-comportement pour promouvoir la consommation de fruits et légumes chez des femmes en âge de procréer (18 à 44 ans) à risque de développer du diabète gestationnel. Il s’est avéré que l’activation des intentions et l’effet question-comportement sont des techniques efficaces pour augmenter la consommation de légumes chez des femmes en âge de procréer à risque de développer du diabète gestationnel. Ce résultat suggère que ces deux techniques peuvent être utilisées pour favoriser une alimentation saine avant le début de la grossesse afin de diminuer le risque de développer du diabète gestationnel ou du diabète de type 2 et ainsi assurer la santé de la femme et celle de son enfant. Bref, les quatre projets de recherche de la thèse ont permis de développer une intervention qui utilisait un outil validé pour mesurer la consommation de fruits et légumes, qui répondait aux besoins de la population cible et qui fut efficace pour promouvoir la saine alimentation chez des femmes à risque de développer du diabète gestationnel.
Resumo:
Les unités linguistiques sous-lexicales (p.ex., la syllabe, le phonème ou le phone) jouent un rôle crucial dans le traitement langagier. En particulier, le traitement langagier est profondément influencé par la distribution de ces unités. Par exemple, les syllabes les plus fréquentes sont articulées plus rapidement. Il est donc important d’avoir accès à des outils permettant de créer du matériel expérimental ou clinique pour l’étude du langage normal ou pathologique qui soit représentatif de l’utilisation des syllabes et des phones dans la langue orale. L’accès à ce type d’outil permet également de comparer des stimuli langagiers en fonction de leurs statistiques distributionnelles, ou encore d’étudier l’impact de ces statistiques sur le traitement langagier dans différentes populations. Pourtant, jusqu’à ce jour, aucun outil n’était disponible sur l’utilisation des unités linguistiques sous-lexicales du français oral québécois. Afin de combler cette lacune, un vaste corpus du français québécois oral spontané a été élaboré à partir d’enregistrements de 184 locuteurs québécois. Une base de données de syllabes et une base de données de phones ont ensuite été construites à partir de ce corpus, offrant une foule d’informations sur la structure des unités et sur leurs statistiques distributionnelles. Le fruit de ce projet, intitulé SyllabO +, sera rendu disponible en ligne en accès libre via le site web http://speechneurolab.ca/fr/syllabo dès la publication de l’article le décrivant. Cet outil incomparable sera d’une grande utilité dans plusieurs domaines, tels que les neurosciences cognitives, la psycholinguistique, la psychologie expérimentale, la phonétique, la phonologie, l’orthophonie et l’étude de l’acquisition des langues.
Resumo:
L’électronique organique suscite un intérêt grandissant en recherche grâce aux nouvelles possibilités qu’elle offre pour faciliter l’intégration de dispositifs électroniques dans nos vies. Grâce à elle, il est possible d’envisager des produits légers, flexibles et peu coûteux à produire. Les classes majeures de dispositifs étudiées sont les cellules photovoltaïques organiques (CPO) et les transistors organiques à effet de champ (TOEC). Dans les dernières années, une attention particulière a été portée sur les méthodes de polymérisation des matériaux organiques entrant dans la fabrication de ces dispositifs. La polymérisation par (hétéro)arylation directe (PHAD) catalysée au Pd offre une synthèse sans dérivé organométallique utilisant simplement un lien C-H aromatique, ce qui facilite la purification, diminue le nombre d’étapes et rend possible la production de matériaux à plus faible coût. De plus, la PHAD permet la préparation de matériaux qui était difficile, voire impossible, à obtenir auparavant. Cependant, l’inconvénient majeur de la PHAD reste sa limitation à certaines classes de polymères possédant des monomères ayant des positions bloquées favorisant qu’une seule paire de liaisons C-H. Dans le cadre de ces travaux de doctorat, l’objectif général est d’étudier la polymérisation par PHAD afin d’accéder à des classes de monomères qui n’étaient pas envisageables auparavant et à étendre l’application de cet outil dans le domaine des polymères conjugués. Plus spécifiquement, nous avons étudié l’utilisation de groupements protecteurs et partants sur des unités de benzodithiophènes et de bithiophène-silylés. Suivant ces résultats, nos travaux ont porté sur la polymérisation de dérivés de bithiophènes avec des bromo(aryle)s, une classe de polymères fréquemment utilisée en électronique organique mais qui était jugée impossible à polymériser par PHAD auparavant. Cette étude a montré l’importance de contrôler la PHAD afin d’obtenir le polymère souhaité. Finalement, nous avons étudié l’effet du système catalytique sur le taux de β−ramifications lors de la synthèse de polymères à base de thiophènes. Dans cette dernière étude, nous avons démontré l’importance d’utiliser des outils de caractérisation adéquats afin de confirmer la qualité des polymères obtenus.
Resumo:
La connectomique est l’étude des cartes de connectivité du cerveau (animal ou humain), qu’on nomme connectomes. À l’aide des outils développés par la science des réseaux complexes, la connectomique tente de décrire la complexité fonctionnelle et structurelle du cerveau. L’organisation des connexions du connectome, particulièrement la hiérarchie sous-jacente, joue un rôle majeur. Jusqu’à présent, les modèles hiérarchiques utilisés en connectomique sont pauvres en propriétés émergentes et présentent des structures régulières. Or, la complexité et la richesse hiérarchique du connectome et de réseaux réels ne sont pas saisies par ces modèles. Nous introduisons un nouveau modèle de croissance de réseaux hiérarchiques basé sur l’attachement préférentiel (HPA - Hierarchical preferential attachment). La calibration du modèle sur les propriétés structurelles de réseaux hiérarchiques réels permet de reproduire plusieurs propriétés émergentes telles que la navigabilité, la fractalité et l’agrégation. Le modèle permet entre autres de contrôler la structure hiérarchique et apporte un support supplémentaire quant à l’influence de la structure sur les propriétés émergentes. Puisque le cerveau est continuellement en activité, nous nous intéressons également aux propriétés dynamiques sur des structures hiérarchiques produites par HPA. L’existence d’états dynamiques d’activité soutenue, analogues à l’état minimal de l’activité cérébrale, est étudiée en imposant une dynamique neuronale binaire. Bien que l’organisation hiérarchique favorise la présence d’un état d’activité minimal, l’activité persistante émerge du contrôle de la propagation par la structure du réseau.
Resumo:
L’objectif de cette étude était d’évaluer les besoins décisionnels et de prioriser cinq décisions difficiles et fréquentes des aînés atteints de la maladie d’Alzheimer (MA) et leurs proches pour développer un programme de formation axé sur la décision partagée combiné avec des outils d’aide à la décision. Un sondage électronique de type Delphi avec 33 experts a permis d’établir un consensus sur cinq décisions. Les résultats concernent la décision des proches de recourir à une intervention de soutien (sélectionné par 83% des experts), la décision de recourir à des interventions pour réduire l’agitation, l’agressivité et les symptômes psychotiques (79%), déterminer l’objectif des soins chez les aînés atteints de la MA au stade avancé (66%), arrêter ou non la conduite automobile (66%) et établir ou non un régime de protection (62%). L’identification de ces besoins décisionnels médicaux et psychosociaux pourra aiguiller différentes parties prenantes dans le développement d’interventions pour faciliter la prise de décision. Mots clés : maladie d’Alzheimer, proches aidants, soins de première ligne, décision partagée, analyse de besoins, méthode Delphi