674 resultados para problème de couverture


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contrôle de la longueur des télomères est une étape critique régissant le potentiel réplicatif des cellules eucaryotes. A cause du problème de fin de réplication, les chromosomes raccourcissent à chaque cycle de division. Ce raccourcissement se produit dans des séquences particulières appelées télomères. La longueur des télomères est en relation directe avec les capacités prolifératives des cellules et est responsable de la limite de division de Hayflick. Cependant, dans certains types cellulaires et dans plus de 90% des cancers, la longueur des télomères va être maintenue par une enzyme spécialisée appelée télomérase. Encore aujourd’hui, comprendre la biogénèse de la télomérase et savoir comment elle est régulée reste un élément clé dans la lutte contre le cancer. Depuis la découverte de cette enzyme en 1985, de nombreux facteurs impliqués dans sa maturation ont été identifiés. Cependant, comment ces facteurs sont intégrés dans le temps et dans l’espace, afin de produire une forme active de la télomérase, est une question restée sans réponse. Dans ce projet, nous avons utilisé la levure Saccharomyces cerevisiæ comme modèle d’étude des voies de biogénèse et de trafic intracellulaire de l’ARN de la télomérase, en condition endogène. La première étape de mon travail fut d’identifier les facteurs requis pour l’assemblage et la localisation de la télomérase aux télomères en utilisant des techniques d’Hybridation In Situ en Fluorescence (FISH). Nous avons pu montrer que la composante ARN de la télomérase fait la navette entre le noyau et le cytoplasme, en condition endogène, dans les cellules sauvages. Nos travaux suggèrent que ce trafic sert de contrôle qualité puisqu’un défaut d’assemblage de la télomérase conduit à son accumulation cytoplasmique et prévient donc sa localisation aux télomères. De plus, nous avons identifié les voies d’import/export nucléaire de cet ARN. Dans une deuxième approche, nous avons réussi à développer une méthode de détection des particules télomérasiques in vivo en utilisant le système MS2-GFP. Notre iv étude montre que contrairement à ce qui a été précédemment décrit, la télomérase n’est pas associée de façon stable aux télomères au cours du cycle cellulaire. En fin de phase S, au moment de la réplication des télomères, la télomérase se regroupe en 1 à 3 foci dont certains colocalisent avec les foci télomériques, suggérant que nous visualisons la télomérase active aux télomères in vivo. La délétion des gènes impliqués dans l’activation et le recrutement de la télomérase aux télomères entraine une forte baisse dans l’accumulation des foci d’ARN au sein de la population cellulaire. Nos résultats montrent donc pour la première fois la localisation endogène de l’ARN TLC1 in situ et in vivo et propose une vue intégrée de la biogenèse et du recrutement de la télomérase aux télomères.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’importance de la problématique des vaches laitières non gestantes avec multiples inséminations (› 3) communément appelées « Repeat Breeder » (RB), au Québec, repose sur deux facteurs: son incidence et son impact économique. Actuellement, l’incidence du syndrome RB au Québec est de ± 25% (Rapport annuel, juin 2008, www.dsahr.ca). Les pertes monétaires associées à ce problème proviennent des frais vétérinaires et d’insémination, de la diminution de productivité ainsi que des pertes en lien avec la réforme involontaire. Afin d’avoir de meilleures connaissances sur ce syndrome, nous devons connaître les facteurs de risques généraux impliqués et ensuite explorer la condition individuelle de ces vaches problèmes. Dans la première partie de ce mémoire, une banque de données informatisées répertoriant 418 383 lactations fut analysée. L’objectif de ce projet de recherche était d’évaluer l’impact des problèmes reproducteurs post-partum et l’effet du nombre de lactations comme facteurs de risques de la vache Repeat Breeder. L’analyse a permis d’établir la dystocie comme étant la condition ayant le plus de conséquences sur la fertilité future. D’autres facteurs de risques à savoir le nombre de lactations influencent le pronostic reproducteur. La deuxième partie de ce mémoire consistait à explorer, à l’aide d’outils cliniques, la condition individuelle des vaches RB. Une étude cohorte fut menée sur des vaches Holstein en fin de période d’attente volontaire au jour 7 du cycle oestral. Les tests cliniques étudiés furent la vaginoscopie, l’examen transrectal, l’ultrasonographie du système reproducteur, la présence d’estérases leucocytaires, la bactériologie et la biochimie du liquide utérin, la cytologie endométriale et le profil de progestérone sérique. Les résultats de ces tests cliniques dévoilent que l’examen bactériologique du liquide utérin est révélateur du statut reproducteur futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’infection primaire au VZV et la réactivation du VZV latent sont fréquemment observées à la suite d’une GMO ou d’une GSCO, ce qui cause de sérieuses complications chez le patient. Pour prévenir ces infections, une prophylaxie antivirale est administrée systématiquement chez tous les greffés de MO ou de SCO, alors qu’il n’existe aucun consensus sur la durée optimale d’une telle prophylaxie. Pour résoudre ce problème, notre objectif est de développer et valider une méthode ELISpot-VZV-IFN- qui permettra de suivre la reconstitution de l’immunité à médiation cellulaire anti-VZV chez les receveurs de GMO ou de GSCO et ainsi déterminer le moment opportun pour réduire ou interrompe la prophylaxie chez les receveurs de greffes de CSH. Dans un premier temps, des valeurs-seuil de la réponse à médiation cellulaire anti-VZV chez la population pédiatrique saine ont dû être générées. À la lumière de nos résultats, un enfant avec un résultat ELISpot-VZV-IFN- > 190.0 SFU/106 PBMC devrait être protégé contre une possible infection à VZV. Pour valider cette étude, une étude prospective de la reconstitution immunitaire anti-VZV a été effectuée chez 9 enfants greffés de MO ou de SCO. Nos résultats préliminaires ont montré qu’il n’y avait eu aucune reconstitution significative de l’immunité à médiation cellulaire anti-VZV dans les 18 premiers mois post-transplantation chez 8 de ces 9 enfants. Les résultats de ces expériences vont fournir d’importantes informations quant à la reconstitution de l’immunité anti-VZV à la suite d’une GMO ou d’une GSCO et pourraient permettre l’amélioration des soins apportés aux receveurs de GMO ou de GSCO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, il y a émergence de souches de Salmonella enterica sérovar Typhimurium multirésistantes causant une septicémie et la mort chez le porc. Ceci constitue un problème majeur pour l’industrie porcine et possiblement pour la santé publique. L’objectif de ce projet était de comparer et de caractériser une souche capable de causer une septicémie chez le porc et une souche commensale, en observant l’interaction avec des cellules épithéliales, des macrophages humains et d’identifier des gènes exprimés par les souches septicémiques et les souches commensales. Tout d’abord, l’infection de cellules épithéliales permet d’observer l’adhérence et l’invasion des bactéries, pour ainsi mettre en évidence la capacité des souches à coloniser le tractus gastro-intestinal. La souche commensale possède un pouvoir d’adhésion supérieur à la souche septicémique. Par la suite, l’infection de macrophages permet de caractériser le niveau de phagocytose et de survie. L’importance de la survie dans les macrophages pourrait permettre de faire un lien avec la septicémie. Toutefois, aucune différence n’est observable dans les conditions qui ont été testé. Ensuite, la technique SCOTS (Selective Capture of Transcribed Sequences) est utilisée pour capturer des gènes uniques à la souche septicémique et un autre SCOTS est fait pour capturer les gènes spécifiques à la souche commensale. Finalement, les gènes sont clonés, leur spécificité face aux souches est analysé par dot blot et ils sont identifiés par séquençage suivient d’une analyses bioinformatiques. Les gènes identifiés par SCOTS, lors des captures pour la souche septicémique et la souche commensale, se trouvent à être des gènes communs aux Salmonella. Toutefois, la différence de pathologie causée par les deux souches, n’est peut-être pas l’acquisition de nouveaux gènes, mais plutôt une différence d’expression entre les deux souches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse centrale de mon texte est conceptuelle. Le vrai problème du principe de précaution, au moins dans ses versions les plus fortes, est son incohérence : il prétend être un guide, mais il échoue dans cette entreprise, en condamnant la démarche même qu’il exige. La réglementation exigée par le principe fait toujours surgir ses propres risques, et le principe interdit donc en même temps ce qu’il prescrit. En conséquence, je vise à mettre à l’épreuve le principe de précaution non parce qu’il conduit dans de mauvaises directions, mais parce que si l’on estime à sa juste valeur, il ne conduit simplement dans aucune direction. Le principe menace d’être paralysant, d’interdire les réglementations, de provoquer l’inaction et tout ce qui peut constituer une étape intermédiaire entre ces points. La protection de l’environnement et de la nature sont souvent des entreprises très sensées, mais le principe de précaution n’est pas un moyen utile pour identifier quand, et dans quelle mesure, cette protection de la nature constitue une question judicieuse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis qu’en 1977, en quatrième de couverture de Fils, Serge Doubrovsky employa le mot « autofiction » pour décrire son roman, les études doubrovskiennes ont eu tendance à se focaliser sur les questions génériques que sous-tendait ce néologisme. Ainsi on a écarté un autre aspect, tout aussi important, de l’œuvre de l’auteur : celui du lien avec le lecteur qui, en plus d’être mis en scène dans chacune des autofictions doubrovskiennes, est associé dès Fils au rapport complexe, inextricable et conflictuel entre les sexes. « J’écris mâle, me lis femelle », dit le narrateur-écrivain ‘Serge Doubrovsky’ – lui qui vivra sous nos yeux une série d’histoires passionnelles avec des compagnes qui sont également ses lectrices. Repris d’épisode en épisode, le rapport entre le héros doubrovskien et sa compagne du moment rappelle les hypothèses de Doubrovsky dans Corneille ou la dialectique du héros (1963), inspirées de la dialectique hégélienne du Maître et de l’Esclave. Cette thèse s’attache donc à analyser la relation dialectique auteur-lectrice telle que mise en scène et approfondie dans l’ensemble de l’édifice autofictionnel. Après présentation et étude des mécanismes dont se sert l’auteur pour construire son Lecteur Modèle (Première partie), les trois autres sections principales de la thèse sont consacrées à l’analyse de Fils et Un amour de soi (1977 et 1982 ; Deuxième partie) ; du Livre brisé et de l’Après-vivre (1989 et 1994 ; Troisième partie) ; et enfin de Laissé pour conte (1999 ; Quatrième partie). Il s’agira enfin de montrer la portée non seulement littéraire, mais également sociale (la réflexion s’élargit à chaque épisode pour aborder les questions de la réception contemporaine de l’œuvre littéraire) et historique (le motif Maître-Esclave s’inscrit dans l’Histoire de l’Europe du XXe siècle, plus précisément la Seconde Guerre mondiale et la Shoah) du thème dialectique doubrovskien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Forme littéraire développée dès les débuts du IVe siècle, l’hagiographie, plus tard sanctionnée par l’Église catholique romaine, se déploie avec tout le rituel et le décorum requis par le genre institué, dévoilant les modalités du savoir et du croire qui la distingue. Cette forme fixe fut réactivée, contre toute attente, dans une somme étoffée durant la seconde moitié du XXe siècle par le Collège de ‘Pataphysique, aréopage de philosophes, littérateurs et plasticiens, qui n’est pas un conclave d’excentriques, pas davantage qu’un nouvel « isme », mais une institution qui résolument emblématise la Science. Ce réemploi générique de l’hagiographie est caractérisé par une hétérogénéité bien peu canonique s’inscrivant dans une continuité problématique par rapport au sous-texte. Une première traversée du Calendrier inviterait à croire à une entreprise parodique et iconoclaste. La parodie, qui est aussi une imitation, pose un problème de visée. Le second degré de Gérard Genette implique deux grands régimes discursifs : le sérieux (le sérieux proprement dit et le satirique) et le ludique. Ces régimes nous ont été utiles pour arrimer la question de l’humour. Il y a là en somme deux possibilités, soit la parodie sérieuse conduisant à ridiculiser l’hagiographie et le Calendrier des Saints qui seraient sérieusement visés, néantisés, tournés en dérision; soit la parodie ludique, à portée nulle, simple jeu, farce farfelue, « pour rire ». Or, nous avons tenté de démontrer dans ce mémoire que, même s’il y a lieu d’avancer des arguments en faveur de l’un et de l’autre type de parodie, le partage ne fonctionne pas, précisément peut-être parce qu’il est possible de montrer à la fois que c’est sérieux et pas sérieux. Dans un troisième temps, on peut aussi faire la démonstration que le pas-sérieux est sérieux. Les jeux de mots, d’homophonie n’engagent-ils pas le Verbe? L’imitation impossible ne réfléchit-elle pas les imitabile de la Sainte Église? La situation énonciatrice tributaire de l’hagiographie pataphysique est non différentiable d’un souci de didactisme qui place la composante moralisatrice au centre des enjeux discursifs. Elle induit de ce fait des attentes en matière d’ethos consistant à mettre au même diapason une représentation sociale de l’énonciateur et une représentation intradiscursive au ton didactique. Elle adjoint un autre ton, savant celui-là, érudit, qui vient défaire la belle convergence et fait disjoncter la rhétorique du genre. Cette rhétoricité problématique de l’hagiographie pataphysique a été abordée sous l’angle de l’ethos. L’ethos est l’instance de validation par laquelle nous renvoyons non pas au caractère de l’orateur, mais, suivant en cela Dominique Maingueneau, au type de parole engendrée par le discours et qui, en retour, rend ce discours crédible. Que devient cette instance lorsque la visée persuasive du discours est remise en question, que l’ethos se démultiplie de façon hétérogène sans véritablement assurer la cohésion du propos ni garantir sa portée? La parodie posant incidemment un problème de visée, est-ce du côté d’un ethos parodique que se trouve la réponse? Il nous a convenu de mesurer, d’articuler, de déplacer cette postulation. Nous nous sommes saisi, pour les besoins de notre argumentation, d’une discipline historiquement lourde d’investissement théorique, soit la rhétorique. Celle-ci constitue à la fois une méthode de composition d’un discours reposant sur des lieux susceptibles de susciter l’adhésion et l’émulation de l’énonciataire et une méthode d’analyse. Guidé par une définition étendue du texte, traversant les littératures non narrative et narrative, il nous a importé enfin de restituer la pratique cymbaliste à partir d’un corpus qui est resté l’apanage du « seul » pataphysicien. Nous nous sommes ainsi situé dans l’horizon plus global de la réceptivité d’un discours qui évacue l’idéologique, qui jamais ne se laisse saisir tout à fait, ni enferrer par le fétiche du sens au profit des potentialités qu’il recèle, et cela à partir d’axiomes arbitraires soumis à l’unique exigence de cohérence interne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, depuis les 25 dernières années, l’enjeu de la privatisation dans le secteur de la santé revient constamment dans le débat public. Déjà dans les années 1980, lorsque le secteur de la santé a commencé à subir d’importantes pressions, faire participer davantage le privé était présenté comme une voie envisageable. Plus récemment, avec l’adoption de la loi 33 par le gouvernement libéral de Jean Charest, plusieurs groupes ont dénoncé la privatisation en santé. Ce qui frappe lorsque l’on s’intéresse à la privatisation en santé, c’est que plusieurs textes abordant cette question ne définissent pas clairement le concept. En se penchant plus particulièrement sur le cas du Québec, cette recherche vise dans un premier temps à rappeler comment a émergé et progressé l’idée de privatisation en santé. Cette idée est apparue dans les années 1980 alors que les programmes publics de soins de santé ont commencé à exercer d’importantes pressions sur les finances publiques des États ébranlés par la crise économique et qu’au même moment, l’idéologie néolibérale, qui remet en question le rôle de l’État dans la couverture sociale, éclipsait tranquillement le keynésianisme. Une nouvelle manière de gérer les programmes publics de soins de santé s’imposait comme étant la voie à adopter. Le nouveau management public et les techniques qu’il propose, dont la privatisation, sont apparus comme étant une solution à considérer. Ensuite, par le biais d’une revue de la littérature, cette recherche fait une analyse du concept de privatisation, tant sur le plan de la protection sociale en général que sur celui de la santé. Ce faisant, elle contribue à combler le flou conceptuel entourant la privatisation et à la définir de manière systématique. Ainsi, la privatisation dans le secteur de la santé transfère des responsabilités du public vers le privé dans certaines activités soit sur le plan: 1) de la gestion et de l’administration, 2) du financement, 3) de la provision et 4) de la propriété. De plus, la privatisation est un processus de changement et peut être initiée de manière active ou passive. La dernière partie de cette recherche se concentre sur le cas québécois et montre comment la privatisation a progressé dans le domaine de la santé au Québec et comment certains éléments du contexte institutionnel canadien ont influencé le processus de privatisation en santé dans le contexte québécois. Suite à une diminution dans le financement en matière de santé de la part du gouvernement fédéral à partir des années 1980, le gouvernement québécois a privatisé activement des services de santé complémentaires en les désassurant, mais a aussi mis en place la politique du virage ambulatoire qui a entraîné une privatisation passive du système de santé. Par cette politique, une nouvelle tendance dans la provision des soins, consistant à retourner plus rapidement les patients dans leur milieu de vie, s’est dessinée. La Loi canadienne sur la santé qui a déjà freiné la privatisation des soins ne représente pas un obstacle suffisant pour arrêter ce type de privatisation. Finalement, avec l’adoption de la loi 33, suite à l’affaire Chaoulli, le gouvernement du Québec a activement fait une plus grande place au privé dans trois activités du programme public de soins de santé soit dans : l’administration et la gestion, la provision et le financement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse poursuit un double objectif. D’une part, mesurer et situer le niveau de la condition physique, de la performance motrice et de la participation aux activités physiques chez des enfants ayant un TDAH. D’autre part, apprécier l’impact d’un programme structuré en activité physique sur la condition physique, la performance motrice, certains comportements cibles ainsi que sur les fonctions cognitives propres à ces enfants. Pour vérifier l’atteinte de ces objectifs, trois études expérimentales ont été complétées et ont fait l’objet d’articles soumis pour publications. Dans le premier article, on évalue la condition physique et la performance motrice chez des enfants ayant un TDAH prenant ou non de la médication. Les résultats obtenus démontrent que la condition physique, comprenant ici des variables reliées à la composition corporelle, l’endurance musculaire et la flexibilité de ces enfants, ne diffèrent pas de celle des membres d’un groupe témoin. Seul l’indice de masse corporelle est significativement moins élevé chez les enfants ayant un TDAH prenant de la médication. Aucune différence n’est observée entre les groupes en ce qui a trait à la capacité aérobie telle que mesurée lors d’une épreuve de tapis roulant. Par contre, lorsqu’évaluée à partir d’un test navette, la performance aérobie de tous les participants est significativement moins élevée, d’où l’importance du choix de l’instrument de mesure. Finalement, les enfants ayant un TDAH ont significativement plus de problèmes de motricité globale que les enfants du groupe témoin. Ces difficultés sont particulièrement importantes pour la locomotion. Dans le cadre d’un programme d’activités physiques structurées et supervisées, le deuxième article porte, d’une part, sur l’évaluation de l’intensité de la participation aux exercices proposés chez des enfants ayant un TDAH. D’autre part, l’impact potentiel de facteurs comme les problèmes de poids et la présence de difficultés motrices sont également pris en considération. Les résultats obtenus suggèrent que ces enfants atteignent une intensité et une durée d’exercice qui ne diffèrent pas de celles des enfants du groupe témoin. Quant aux enfants qui ont un problème de poids ou des difficultés motrices, l’intensité et la durée de leur participation ne diffèrent pas de celles des participants témoins. Sur la base des données obtenues, les enfants ayant un TDAH peuvent parvenir à un degré de participation aux exercices qui permet de bénéficier des bienfaits de la pratique d’activités physiques. Le troisième article traite de l’impact potentiel d’un programme d’activités physiques sur la condition physique, la performance motrice, certains comportements ainsi que sur les fonctions cognitives des enfants ayant un TDAH. Sur la base des résultats obtenus, il est possible de faire valoir que la participation à un tel programme permet d’améliorer les capacités musculaires, les habiletés motrices, certains comportements observés par les parents et les enseignants ainsi que la capacité d’attention. Cela pourrait produire un impact significatif dans l’adaptation fonctionnelle de ces jeunes. Ces résultats soulignent le besoin de continuer la recherche dans les domaines de l’activité physique et du TDAH. La discussion générale présente les liens existants entre les manuscrits en fonction du modèle de l’engagement dans les activités physiques. Le déficit de la motricité globale ainsi que l’impact clinique potentiel de l’activité physique dans le traitement du TDAH sont les deux axes de recherche qui semblent le plus propices à des travaux futurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe un discours, qui gagne chaque jour en popularité dans les milieux académiques et professionnels, qui se reproduit dans le quotidien familial et socioculturel, sur une adolescence qui est perçue comme un problème, une étape de crise avec laquelle il est difficile de négocier. À partir des écrits de Foucault (1976) on peut penser que cette inquiétude s’inscrit dans la construction du dispositif occidental de la sexualité. À partir de ce concept, l’objectif de cette recherche était de dégager les constructions possibles d’un ou de dispositifs de sexualité chez des adolescents(es) vivant en situation de pauvreté au Brésil (Belém-Pará). La méthode de recherche choisie a été un devis qualitatif selon une approche ethnographique qui consiste à décrire et à interpréter un système ou un groupe socioculturel (Creswell, 1998). La principale technique de cueillette des données, en plus des techniques d’observation ethnographique et l’analyse documentaire, a été l’entrevue en profondeur, en face à face, à partir de questions ouvertes. Quatorze adolescent(e)s vivant dans le même quartier pauvre de Belém ont été observé(e)s et interviewé(e)s, de même que leurs parents. L’analyse des données, effectuée selon l’analyse de contenu proposée par Bardin (1977) ont révélé un dispositif de sexualité présent tant chez les adolescents, parents et professeurs rencontrés, et s’appuyant sur l’école, les églises, les médias et l’État, qui a été décrit comme un dispositif du sexe sécuritaire alors qu’un dispositif d’alliance, au sens de Foucault, a été décrit après analyses et confirmation des données comme l’alliance des puissants. Ces résultats, avec en plus des informations nouvelles sur la sexualité amazonienne à partir des légendes locales du Boto et d’Iara, permettent de voir sous un nouvel angle la question de la construction sociale de la sexualité chez des adolescent(e)s vivant en situation de pauvreté à Belém (Pará) au Brésil et ont conduit à des recommandations spécifiques pour améliorer la recherche et les pratiques professionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.