999 resultados para Carboxyméthylamidon sodique à haute teneur en amylose
Resumo:
Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.
Resumo:
Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.
Resumo:
Le caryotype moléculaire permet d’identifier un CNV chez 10-14% des individus atteints de déficience intellectuelle et/ou de malformations congénitales. C’est pourquoi il s’agit maintenant de l’analyse de première intention chez ces patients. Toutefois, le rendement diagnostique n’est pas aussi bien défini en contexte prénatal et l’identification de CNVs de signification clinique incertaine y est particulièrement problématique à cause du risque d’interruption de grossesse. Nous avons donc testé 49 fœtus avec malformations majeures et un caryotype conventionnel normal avec une micropuce CGH pangénomique, et obtenu un diagnostic dans 8,2% des cas. Par ailleurs, des micropuces à très haute résolution combinant le caryotype moléculaire et le génotypage de SNPs ont récemment été introduites sur le marché. En plus d’identifier les CNVs, ces plateformes détectent les LOHs, qui peuvent indiquer la présence d’une mutation homozygote ou de disomie uniparentale. Ces anomalies pouvant être associées à la déficience intellectuelle ou à des malformations, leur détection est particulièrement intéressante pour les patients dont le phénotype reste inexpliqué. Cependant, le rendement diagnostique de ces plateformes n’est pas confirmé, et l’utilité clinique réelle des LOHs n’est toujours pas établie. Nous avons donc testé 21 enfants atteints de déficience intellectuelle pour qui les méthodes standards d’analyse génétique n’avaient pas résulté en un diagnostic, et avons pu faire passer le rendement diagnostique de 14,3% à 28,6% grâce à l’information fournie par les LOHs. Cette étude démontre l’utilité clinique d’une micropuce CGH pangénomique chez des fœtus avec malformations, de même que celle d’une micropuce SNP chez des enfants avec déficience intellectuelle.
Resumo:
Étude de cas / Case study
Resumo:
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.
Resumo:
Le rôle du parent est important dans le développement de la compétence en lecture de jeunes enfants et lire à son enfant est une pratique de littératie familiale fortement encouragée par la société. Cette étude a pour objectif de décrire cet accompagnement parental notamment en lien avec les stratégies de compréhension utilisées entre un parent et son enfant lors de la lecture à voix haute. Nous avons observé 10 parents lire un abécédaire, un texte narratif avec intrigue, un texte narratif sans intrigue et un texte informatif à leur enfant de cinq ans. Il s’avère que les stratégies utilisées par les parents et leurs enfants diffèrent selon le genre de texte. Les élèves ayant de faibles résultats (reconnaissance des lettres et de leurs sons, rappel du texte, compréhension du vocabulaire réceptif et de la morphosyntaxe) utilisent également moins de stratégies de compréhension lors de la lecture à voix haute que les enfants présentant de meilleurs résultats. Nous avons également vérifié l’étayage offert par les parents d’enfants présentant de bonnes et de faibles compétences en lecture. Ces deux groupes de parents se distinguent par la qualité et la fréquence de l’utilisation des stratégies de compréhension. En effet, nous remarquons que les parents qui guident leurs enfants dans l’utilisation des stratégies de compréhension sont davantage associés aux enfants démontrant une bonne compétence en lecture. Finalement, nous avons aussi vérifié les pratiques de littératie familiale (temps d’exposition et accessibilité à la lecture, modélisation par les membres de la famille, attitude des parents envers la lecture et mise en place d’activité favorisant la conscience phonologique de l’enfant). Seule la mise sur pied d’activités favorisant la conscience phonologique a pu être liée au rendement des enfants.
Resumo:
Objectifs: Les patients hospitalisés aux soins intensifs (SI) sont souvent victimes d’erreurs médicales. La nature interprofessionnelle des équipes de SI les rend vulnérables aux erreurs de communication. L’objectif primaire du projet est d’améliorer la communication dans une équipe interprofessionnelle de soins intensifs par une formation en simulation à haute fidélité. Méthodologie Une étude prospective randomisée contrôlée à double insu a été réalisée. Dix équipes de six professionnels de SI ont complété trois scénarios de simulations de réanimation. Le groupe intervention était débreffé sur des aspects de communication alors que le groupe contrôle était débreffé sur des aspects techniques de réanimation. Trois mois plus tard, les équipes réalisaient une quatrième simulation sans débreffage. Les simulations étaient toutes évaluées pour la qualité, l’efficacité de la communication et le partage des informations critiques par quatre évaluateurs. Résultats Pour l’issue primaire, il n’y a pas eu d’amélioration plus grande de la communication dans le groupe intervention en comparaison avec le groupe contrôle. Une amélioration de 16% de l’efficacité des communications a été notée dans les équipes de soins intensifs indépendamment du groupe étudié. Les infirmiers et les inhalothérapeutes ont amélioré significativement l’efficacité de la communication après trois sessions. L’effet observé ne s’est pas maintenu à trois mois. Conclusion Une formation sur simulateur à haute fidélité couplée à un débreffage peut améliorer à court terme l’efficacité des communications dans une équipe interprofessionnelle de SI.
Resumo:
Le flou de mouvement de haute qualité est un effet de plus en plus important en rendu interactif. Avec l'augmentation constante en qualité des ressources et en fidélité des scènes vient un désir semblable pour des effets lenticulaires plus détaillés et réalistes. Cependant, même dans le contexte du rendu hors-ligne, le flou de mouvement est souvent approximé à l'aide d'un post-traitement. Les algorithmes de post-traitement pour le flou de mouvement ont fait des pas de géant au niveau de la qualité visuelle, générant des résultats plausibles tout en conservant un niveau de performance interactif. Néanmoins, des artefacts persistent en présence, par exemple, de mouvements superposés ou de motifs de mouvement à très large ou très fine échelle, ainsi qu'en présence de mouvement à la fois linéaire et rotationnel. De plus, des mouvements d'amplitude importante ont tendance à causer des artefacts évidents aux bordures d'objets ou d'image. Ce mémoire présente une technique qui résout ces artefacts avec un échantillonnage plus robuste et un système de filtrage qui échantillonne selon deux directions qui sont dynamiquement et automatiquement sélectionnées pour donner l'image la plus précise possible. Ces modifications entraînent un coût en performance somme toute mineur comparativement aux implantations existantes: nous pouvons générer un flou de mouvement plausible et temporellement cohérent pour plusieurs séquences d'animation complexes, le tout en moins de 2ms à une résolution de 1280 x 720. De plus, notre filtre est conçu pour s'intégrer facilement avec des filtres post-traitement d'anticrénelage.
Resumo:
Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise et sciences de la santé - Physiothérapie
Resumo:
Les sociétés contemporaines affrontent le défi de s’intégrer et s’adapter à un processus de transformation qui vise la construction de sociétés du savoir. Ce processus doit notamment son élan aux institutions d’enseignement supérieur qui constituent un espace privilégié où on bâtit l’avenir d’une société à partir des savoirs et celles-ci doivent faire face aux nouveaux enjeux sociaux, économiques et politiques qui affectent tous les pays du monde. La quête de la qualité devient donc un processus constant d’amélioration et surgit l’intérêt par l’évaluation au niveau universitaire. Par conséquent, cette recherche s’attache au sujet de l’évaluation à l’enseignement supérieur et s’enfonce dans le débat actuel sur les changements provoqués par les évaluations institutionnelles produisant un défi puisqu’il s’agit d’une prise de conscience fondée sur la culture de la qualité. L’autoévaluation est une stratégie permettant aux institutions d’enseignement supérieur mener des processus intégraux de valorisation dont le but est d’identifier les faiblesses des facteurs qui ont besoin d’améliorer. Le résultat conduit à l’élaboration et à la mise en œuvre d’un plan d’amélioration pour l'institution, programme académique ou plan d’études. À travers l’orientation du modèle d’évaluation systémique CIPP de Stufflebeam (1987), on a pu analyser de façon holistique la mise en place de l’autoévaluation depuis son contexte, planification, processus et produit. Ainsi les objectifs de la thèse visent l’identification du développement de la deuxième autoévaluation afin d’obtenir une reconnaissance de haute qualité et effectuer la mise en œuvre du plan d’amélioration auprès des programmes académiques de Licence en Comptabilité et Gestion de l’entreprise de la Faculté de Sciences de l’Administration de l’Université du Valle en Colombie. À travers l’appropriation de la théorie Neo-institutionnelle les changements apparus après l’autoévaluation ont été également analysés et interprétés et ont ainsi permis l’achèvement des fins de la recherche. La méthodologie développe la stratégie de l’étude de cas dans les deux programmes académiques avec une approche mixte où la phase qualitative des entretiens semi-structurés est complémentée par la phase quantitative des enquêtes. Des documents institutionnels des programmes et de la faculté ont aussi été considérés. Grâce à ces trois instruments ont pu obtenir plus d’objectivité et d’efficacité pendant la recherche. Les résultats dévoilent que les deux programmes ciblés ont recouru à des procédés et à des actions accordées au modèle de l’Université du Valle quoiqu’il ait fallu faire des adaptations à leurs propres besoins et pertinence ce qui a permis de mener à terme la mise en œuvre du processus d’autoévaluation et ceci a donné lieu à certains changements. Les composantes Processus Académiques et Enseignants sont celles qui ont obtenu le plus fort développement, parmi celles-ci on trouve également : Organisation, Administration et Gestion, Ressources Humaines, Physiques et Financières. D’autre part, parmi les composantes moins développées on a : Anciens Étudiants et Bienêtre Institutionnel. Les conclusions ont révélé que se servir d’un cadre institutionnel fort donne du sens d’identité et du soutien aux programmes. Il faut remarquer qu’il est essentiel d’une part élargir la communication de l’autoévaluation et ses résultats et d’autre part effectuer un suivi permanent des plans d’amélioration afin d’obtenir des changements importants et produire ainsi un enracinement plus fort de la culture de la qualité et l’innovation auprès de la communauté académique. Les résultats dégagés de cette thèse peuvent contribuer à mieux comprendre tant la mise en œuvre de l’autoévaluation et des plans d’amélioration aussi que les aspects facilitateurs, limitants, les blocages aux processus d’évaluation et la génération de changements sur les programmes académiques. Dans ce sens, la recherche devient un guide et une réflexion à propos des thèmes où les résultats sont très faibles. Outre, celle-ci révèle l’influence des cadres institutionnels ainsi que les entraves et tensions internes et externes montrant un certain degré d’agencement par le biais de stratégies de la part des responsables de la prise de décisions dans les universités. On peut déduire que la qualité, l’évaluation, le changement et l’innovation sont des concepts inhérents à la perspective de l’apprentissage organisationnel et à la mobilité des savoirs.
Resumo:
Consumers are legitimate stakeholders but are unevenly active and powerful in the dynamics that can lead companies to a more socially responsible behaviour. This article proposes to test the relevance, across the struggles of consumers, of the well-known opposition in business ethics between ethics of justice and ethics of care. Relying on a semi-participant direct and webnographic observation of a wide citizen movement that arose in Spain, questioning banks and mortgage regulation, after the explosion of the housing bubble in 2008, this article strives to highlight the permanent dual approach to ethics at all levels of the movement, from spokespersons to supporters, in speech and in actions. One approach is more focused on laws and principles, whereas the other is more focused on direct support to people affected by foreclosures. This article demonstrates the continuities between these two registers of justice and care and their functional complementarities in the dynamics of mobilization. A discussion will then follow on the substance of the opposition between the ethics of justice and the ethics of care as well as on the possible representativeness of this case: behind the singularities of the mortgage issue or of Spanish political culture, one cannot but observe the challenging mobilizing process that comprises a human rightist activism combined with a feminist approach to social issues.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
La synthèse de siliciures métalliques sous la forme de films ultra-minces demeure un enjeu majeur en technologie CMOS. Le contrôle du budget thermique, afin de limiter la diffusion des dopants, est essentiel. Des techniques de recuit ultra-rapide sont alors couramment utilisées. Dans ce contexte, la technique de nanocalorimétrie est employée afin d'étudier, in situ, la formation en phase solide des siliciures de Ni à des taux de chauffage aussi élevés que 10^5 K/s. Des films de Ni, compris entre 9.3 et 0.3 nm sont déposés sur des calorimètres avec un substrat de a-Si ou de Si(100). Des mesures de diffraction de rayons X, balayées en température à 3 K/s, permettent de comparer les séquences de phase obtenues à bas taux de chauffage sur des échantillons de contrôle et à ultra-haut taux de chauffage sur les calorimètres. En premier lieu, il est apparu que l'emploi de calorimètres de type c-NC, munis d'une couche de 340 nm de Si(100), présente un défi majeur : un signal endothermique anormal vient fausser la mesure à haute température. Des micro-défauts au sein de la membrane de SiNx créent des courts-circuits entre la bande chauffante de Pt du calorimètre et l'échantillon métallique. Ce phénomène diminue avec l'épaisseur de l'échantillon et n'a pas d'effet en dessous de 400 °C tant que les porteurs de charge intrinsèques au Si ne sont pas activés. Il est possible de corriger la mesure de taux de chaleur en fonction de la température avec une incertitude de 12 °C. En ce qui a trait à la formation des siliciures de Ni à ultra-haut taux de chauffage, l'étude montre que la séquence de phase est modifiée. Les phases riches en m étal, Ni2Si et théta, ne sont pas détectées sur Si(100) et la cinétique de formation favorise une amorphisation en phase solide en début de réaction. Les enthalpies de formation pour les couches de Ni inférieures à 10 nm sont globalement plus élevées que dans le cas volumique, jusqu' à 66 %. De plus, les mesures calorimétriques montrent clairement un signal endothermique à haute température, témoignant de la compétition que se livrent la réaction de phase et l'agglomération de la couche. Pour les échantillons recuits a 3 K/s sur Si(100), une épaisseur critique telle que décrite par Zhang et Luo, et proche de 4 nm de Ni, est supposée. Un modèle est proposé, basé sur la difficulté de diffusion des composants entre des grains de plus en plus petits, afin d'expliquer la stabilité accrue des couches de plus en plus fines. Cette stabilité est également observée par nanocalorimétrie à travers le signal endothermique. Ce dernier se décale vers les hautes températures quand l'épaisseur du film diminue. En outre, une 2e épaisseur critique, d'environ 1 nm de Ni, est remarquée. En dessous, une seule phase semble se former au-dessus de 400 °C, supposément du NiSi2.
Resumo:
Les glycosides sont reconnus pour leur potentiel pharmaceutique tels que les antibiotiques, les agents anticancéreux et antiviraux. Ils sont impliqués dans plusieurs processus biologiques entre autres la reconnaissance cellulaire, l’inflammation, la réponse immunitaire, la croissance, le transport cellulaire, l’adhésion cellulaire et les groupes sanguin. Notre groupe excelle dans la glycosidation stéréocontrôlée avec un minimum de protection suivant le concept d’activation à distance d’aglycones hétérocycliques anomériques. La présence d’une quantité sous stoechiométrique d’acide de Lewis, les (2-pyridyl)-β-D-glycosides déprotégés sont d’excellents donneurs permettant de haute sélectivité pour l’anomère- α-D de glycosides simples et complexes. Inversement, (2-pyridyl)-α-D-glycosides donnent les β-D-glycosides avec de bonne sélectivité. Des exemples de formation stéréocontrôlée de glycosides sont présentés dans cette thèse avec des accepteurs tels que les phénols, les stéroïdes, les terpènes et les acides hydroxyaminés. Cette méthodologie de glycosidation a été appliquée sur support solide.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tridimensionnelle (3D) de la colonne vertébrale. Pour la plupart des patients atteints de SIA, aucun traitement chirurgical n’est nécessaire. Lorsque la déformation devient sévère, un traitement chirurgical visant à réduire la déformation est recommandé. Pour déterminer la sévérité de la SIA, l’imagerie la plus utilisée est une radiographie postéroantérieure (PA) ou antéro-postérieure (AP) du rachis. Plusieurs indices sont disponibles à partir de cette modalité d’imagerie afin de quantifier la déformation de la SIA, dont l’angle de Cobb. La conduite thérapeutique est généralement basée sur cet indice. Cependant, les indices disponibles à cette modalité d’imagerie sont de nature bidimensionnelle (2D). Celles-ci ne décrivent donc pas entièrement la déformation dans la SIA dû à sa nature tridimensionnelle (3D). Conséquemment, les classifications basées sur les indices 2D souffrent des mêmes limitations. Dans le but décrire la SIA en 3D, la torsion géométrique a été étudiée et proposée par Poncet et al. Celle-ci mesure la tendance d’une courbe tridimensionnelle à changer de direction. Cependant, la méthode proposée est susceptible aux erreurs de reconstructions 3D et elle est calculée localement au niveau vertébral. L’objectif de cette étude est d’évaluer une nouvelle méthode d’estimation de la torsion géométrique par l’approximation de longueurs d’arcs locaux et par paramétrisation de courbes dans la SIA. Une première étude visera à étudier la sensibilité de la nouvelle méthode présentée face aux erreurs de reconstructions 3D du rachis. Par la suite, deux études cliniques vont présenter la iv torsion géométrique comme indice global et viseront à démontrer l’existence de sous-groupes non-identifiés dans les classifications actuelles et que ceux-ci ont une pertinence clinique. La première étude a évalué la robustesse de la nouvelle méthode d’estimation de la torsion géométrique chez un groupe de patient atteint de la SIA. Elle a démontré que la nouvelle technique est robuste face aux erreurs de reconstructions 3D du rachis. La deuxième étude a évalué la torsion géométrique utilisant cette nouvelle méthode dans une cohorte de patient avec des déformations de type Lenke 1. Elle a démontré qu’il existe deux sous-groupes, une avec des valeurs de torsion élevées et l’autre avec des valeurs basses. Ces deux sous-groupes possèdent des différences statistiquement significatives, notamment au niveau du rachis lombaire avec le groupe de torsion élevée ayant des valeurs d’orientation des plans de déformation maximales (PMC) en thoraco-lombaire (TLL) plus élevées. La dernière étude a évalué les résultats chirurgicaux de patients ayant une déformation Lenke 1 sous-classifiées selon les valeurs de torsion préalablement. Cette étude a pu démontrer des différences au niveau du PMC au niveau thoraco-lombaire avec des valeurs plus élevées en postopératoire chez les patients ayant une haute torsion. Ces études présentent une nouvelle méthode d’estimation de la torsion géométrique et présentent cet indice quantitativement. Elles ont démontré l’existence de sous-groupes 3D basés sur cet indice ayant une pertinence clinique dans la SIA, qui n’étaient pas identifiés auparavant. Ce projet contribue dans la tendance actuelle vers le développement d’indices 3D et de classifications 3D pour la scoliose idiopathique de l’adolescent.