620 resultados para analyse réseaux


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le sionisme est un mouvement politique et une idéologie nationale. Son histoire, si elle est celle d'une libération nationale, est aussi celle d'une tragédie. C'est une tragédie partagée par deux peuples dont les aspirations sont tout autant légitimes. Afin de bien comprendre et éventuellement d'être en mesure de surmonter cette tragédie, une analyse morphologique du sionisme est entreprise. L'approche morphologique de l'étude des idéologies a été développée par Michael Freeden. Appliquée au sionisme, elle fait ressortir quatre concepts fondamentaux de cette idéologie : la nation, l'antisémitisme, galout et la renaissance nationale. L'analyse de ces quatre concepts permettra de suivre l'évolution conceptuelle du sionisme à travers le temps et ses différentes variations idéationnelles. De plus, cela permettra de montrer comment le sionisme en tant qu'idéologie nationale s'est transformé en fonction des contextes sociopolitiques auxquels il était confronté.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le taux d’homicide est un bon indicateur de la violence générale dans un pays. De plus, il s’agit du crime le mieux mesuré car il est rare qu’un homicide passe inaperçu. De nombreux auteurs ont donc cherché à expliquer ce qui pouvait influencer la variation du taux d’homicide dans les pays du monde. Leurs résultats ont mis à jour certains prédicteurs qui influenceraient le taux d’homicide dans les pays du monde. Il s’agit notamment du niveau de vie mesuré à l’aide du PIB par habitant, de l’inégalité, mesuré à l’aide du coefficient GINI ou encore des facteurs démographiques. Ces facteurs criminogènes sont tous de niveau macroscopique sur lesquels il est difficile d’agir. Ce mémoire intégrera au modèle, en plus des prédicteurs déjà connus, des variables plus proximales (consommation d’alcool, de drogue, présence de criminalité organisée, corruption, taux de criminalité, etc.) afin de voir s’ils pourraient également influencer la variation du taux d’homicide. Cette étude se concentrera sur le taux d’homicide de 41 pays européens. Une sélection de nos variables sera effectuée à l’aide d’analyses bivariées (corrélation, corrélation partielle) avant d’intégrer les variables restantes dans plusieurs modèles de régression multiple qui permettra in fine d’isoler les variables ayant une réelle influence sur le taux d’homicide. Les résultats indiquent que les facteurs proximaux ont une réelle influence sur le taux d’homicide. En effet, non seulement deux variables proximales (l’abus de la consommation d’alcool, et le pourcentage de personne s’étant déclaré victime de cambriolage) sont, après avoir pris en considération de nombreuses variables de niveau macroscopique, significativement liées au taux d’homicide mais en plus, le fait d’intégrer ce type de variables dans un modèle de régression multiple fait augmenter la variance expliquée. Ces variables de type proximales ont donc une grande importance dans l’explication de la variation du taux d’homicide.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de ce mémoire est d’effectuer une analyse détaillée de ce chapitre de la Critique de la raison pure de Kant à partir de l’idée qu’il présente les « résultats » de la démarche critique menée jusque-là concernant les limites de la connaissance. Le mémoire sera divisé en deux parties. Dans la première partie, nous montrerons que ce chapitre dresse un bilan provisoire et que pour cette raison il soulève deux enjeux : 1 – montrer que les concepts purs de l'entendement – en dépit de leur caractère a priori et de leur origine dans l'entendement pur – ne sont susceptibles d'un usage objectif qu'appliqués aux données de la sensibilité (A 246/B 303 : « L'Analytique transcendantale a donc cet important résultat... ») ; 2 – montrer que, à son tour, la sensibilité est elle-même limitée par l'entendement et qu'elle ne renferme pas la totalité des objets possibles (A 251 : « Tel a été le résultat de toute l'Esthétique transcendantale... »). Dans la seconde partie, nous analyserons les différences entre les deux éditions de la Critique de la raison pure concernant ce chapitre en insistant tout particulièrement sur la distinction faite dans la deuxième édition entre noumène au sens positif et noumène au sens négatif.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La voie de la polarité planaire cellulaire (PCP), aussi connue sous le nom de la voie non-canonique du Frizzled/Dishevelled, contrôle le processus morphogénétique de l'extension convergente (CE) qui est essentiel pour la gastrulation et la formation du tube neural pendant l'embryogenèse. La signalisation du PCP a été récemment associée avec des anomalies du tube neural (ATN) dans des modèles animaux et chez l'humain. Prickle1 est une protéine centrale de la voie PCP, exprimée dans la ligne primitive et le mésoderme pendant l'embryogenèse de la souris. La perte ou le gain de fonction de Prickle1 mène à des mouvements de CE fautifs chez le poisson zèbre et la grenouille. PRICKLE1 interagit directement avec deux autres membres de la voie PCP, Dishevelled et Strabismus/Vang. Dans notre étude, nous avons investigué le rôle de PRICKLE1 dans l'étiologie des ATN dans une cohorte de 810 patients par le re-séquençage de son cadre de lecture et des jonctions exon-intron. Le potentiel pathogénique des mutations ainsi identifiées a été évalué par des méthodes bioinformatiques, suivi par une validation fonctionnelle in vivo dans un système poisson zèbre. Nous avons identifié dans notre cohorte un total de 9 nouvelles mutations dont sept: p.Ile69Thr, p.Asn81His, p.Thr275Met, p.Arg682Cys et p.Ser739Phe, p.Val550Met et p.Asp771Asn qui affectent des acides aminés conservés. Ces mutations ont été prédites in silico d’affecter la fonction de la protéine et sont absentes dans une large cohorte de contrôles de même origine ethnique. La co-injection de ces variantes avec le gène prickle1a de type sauvage chez l’embryon de poisson zèbre a démontré qu’une mutation, p.Arg682Cys, modifie dans un sens négatif le phénotype du défaut de la CE produit par pk1 de type sauvage. Notre étude démontre que PK1 peut agir comme facteur prédisposant pour les ATN chez l’humain et élargit encore plus nos connaissances sur le rôle des gènes de la PCP dans la pathogenèse de ces malformations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La progression d’un individu au travers d’un environnement diversifié dépend des informations visuelles qui lui permettent d’évaluer la taille, la forme ou même la distance et le temps de contact avec les obstacles dans son chemin. Il peut ainsi planifier en avance les modifications nécessaires de son patron locomoteur afin d’éviter ou enjamber ces entraves. Ce concept est aussi applicable lorsque le sujet doit atteindre une cible, comme un prédateur tentant d’attraper sa proie en pleine course. Les structures neurales impliquées dans la genèse des modifications volontaires de mouvements locomoteurs ont été largement étudiées, mais relativement peu d’information est présentement disponible sur les processus intégrant l’information visuelle afin de planifier ces mouvements. De nombreux travaux chez le primate suggèrent que le cortex pariétal postérieur (CPP) semble jouer un rôle important dans la préparation et l’exécution de mouvements d’atteinte visuellement guidés. Dans cette thèse, nous avons investigué la proposition que le CPP participe similairement dans la planification et le contrôle de la locomotion sous guidage visuel chez le chat. Dans notre première étude, nous avons examiné l’étendue des connexions cortico-corticales entre le CPP et les aires motrices plus frontales, particulièrement le cortex moteur, à l’aide d’injections de traceurs fluorescents rétrogrades. Nous avons cartographié la surface du cortex moteur de chats anesthésiés afin d’identifier les représentations somatotopiques distales et proximales du membre antérieur dans la partie rostrale du cortex moteur, la représentation du membre antérieur située dans la partie caudale de l’aire motrice, et enfin la représentation du membre postérieur. L’injection de différents traceurs rétrogrades dans deux régions motrices sélectionnées par chat nous a permis de visualiser la densité des projections divergentes et convergentes pariétales, dirigées vers ces sites moteurs. Notre analyse a révélé une organisation topographique distincte de connexions du CPP avec toutes les régions motrices identifiées. En particulier, nous avons noté que la représentation caudale du membre antérieur reçoit majoritairement des projections du côté rostral du sillon pariétal, tandis que la partie caudale du CPP projette fortement vers la représentation rostrale du membre antérieur. Cette dernière observation est particulièrement intéressante, parce que le côté caudal du sillon pariétal reçoit de nombreux inputs visuels et sa cible principale, la région motrice rostrale, est bien connue pour être impliquée dans les fonctions motrices volontaires. Ainsi, cette étude anatomique suggère que le CPP, au travers de connexions étendues avec les différentes régions somatotopiques du cortex moteur, pourrait participer à l’élaboration d’un substrat neural idéal pour des processus tels que la coordination inter-membre, intra-membre et aussi la modulation de mouvements volontaires sous guidage visuel. Notre deuxième étude a testé l’hypothèse que le CPP participe dans la modulation et la planification de la locomotion visuellement guidée chez le chat. En nous référant à la cartographie corticale obtenue dans nos travaux anatomiques, nous avons enregistré l’activité de neurones pariétaux, situés dans les portions des aires 5a et 5b qui ont de fortes connexions avec les régions motrices impliquées dans les mouvements de la patte antérieure. Ces enregistrements ont été effectués pendant une tâche de locomotion qui requiert l’enjambement d’obstacles de différentes tailles. En dissociant la vitesse des obstacles de celle du tapis sur lequel le chat marche, notre protocole expérimental nous a aussi permit de mettre plus d’emphase sur l’importance de l’information visuelle et de la séparer de l’influx proprioceptif généré pendant la locomotion. Nos enregistrements ont révélé deux groupes de cellules pariétales activées en relation avec l’enjambement de l’obstacle: une population, principalement située dans l’aire 5a, qui décharge seulement pendant le passage du membre au dessus del’entrave (cellules spécifiques au mouvement) et une autre, surtout localisée dans l’aire 5b, qui est activée au moins un cycle de marche avant l’enjambement (cellules anticipatrices). De plus, nous avons observé que l’activité de ces groupes neuronaux, particulièrement les cellules anticipatrices, était amplifiée lorsque la vitesse des obstacles était dissociée de celle du tapis roulant, démontrant l’importance grandissante de la vision lorsque la tâche devient plus difficile. Enfin, un grand nombre des cellules activées spécifiquement pendant l’enjambement démontraient une corrélation soutenue de leur activité avec le membre controlatéral, même s’il ne menait pas dans le mouvement (cellules unilatérales). Inversement, nous avons noté que la majorité des cellules anticipatrices avaient plutôt tendance à maintenir leur décharge en phase avec l’activité musculaire du premier membre à enjamber l’obstacle, indépendamment de sa position par rapport au site d’enregistrement (cellules bilatérales). Nous suggérons que cette disparité additionnelle démontre une fonction diversifiée de l’activité du CPP. Par exemple, les cellules unilatérales pourraient moduler le mouvement du membre controlatéral au-dessus de l’obstacle, qu’il mène ou suive dans l’ordre d’enjambement, tandis que les neurones bilatéraux sembleraient plutôt spécifier le type de mouvement volontaire requis pour éviter l’entrave. Ensembles, nos observations indiquent que le CPP a le potentiel de moduler l’activité des centres moteurs au travers de réseaux corticaux étendus et contribue à différents aspects de la locomotion sous guidage visuel, notamment l’initiation et l’ajustement de mouvements volontaires des membres antérieurs, mais aussi la planification de ces actions afin d’adapter la progression de l’individu au travers d’un environnement complexe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’équilibre économique mondial repose sur une asymétrie structurelle dont les pôles antagonistes principaux sont les États-Unis et l’Asie orientale. À la base de cet axe de tension géographique se trouve la question de la représentation mondiale de la richesse. La domination du dollar permet aux États-Unis un accès disproportionné aux ressources planétaires. Les pays créanciers, dont fait partie la Chine, hésitent à laisser flotter leur monnaie et attaquer l’hégémonie du dollar. Entre temps, les déséquilibres s’intensifient, tout comme les tensions politiques, par l’effet de ce système monétaire qui participe au maintien d’un monde unipolaire. Le système monétaire actuel n’offre aucune perspective endogène quant à la résolution des déséquilibres que son équilibre requiert. Ce mémoire cherche à identifier les stratégies géoéconomiques de la Chine pour se soustraire de l’emprise du dollar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

But : La radiothérapie (RT) est disponible seulement dans les grandes villes au Québec. Les patients atteints de cancer vivant en zone rurale doivent voyager pour obtenir ces soins. Toute proportion gardée, moins de ces patients accèdent à la RT. L’accessibilité serait améliorée en instaurant de petits centres de RT qui dépendraient de la télémédecine (téléRT). Cette étude tente (1) de décrire un modèle (population visée et technologie) réaliste de téléRT; (2) d’en estimer les coûts, comparativement à la situation actuelle où les patients voyagent (itineRT). Méthode : (1) À l’aide de données probantes, le modèle de téléRT a été développé selon des critères de : faisabilité, sécurité, absence de transfert des patients et minimisation du personnel. (2) Les coûts ont été estimés du point de vue du payeur unique en utilisant une méthode publiée qui tient compte des coûts en capitaux, de la main d’oeuvre et des frais généraux. Résultats : (1) Le modèle de téléRT proposé se limiterait aux traitements palliatifs à 250 patients par année. (2) Les coûts sont de 5918$/patient (95% I.C. 4985 à 7095$) pour téléRT comparativement à 4541$/patient (95%I.C. 4351 à 4739$) pour itineRT. Les coûts annuels de téléRT sont de 1,48 M$ (d.s. 0,6 M$), avec une augmentation des coûts nets de seulement 0,54 M$ (d.s. 0,26 M$) comparativement à itineRT. Si on modifiait certaines conditions, le service de téléRT pourrait s’étendre au traitement curatif du cancer de prostate et du sein, à coûts similaires à itineRT. Conclusion : Ce modèle de téléRT pourrait améliorer l’accessibilité et l’équité aux soins, à des coûts modestes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nombreuses études concluent que la charge mécanique supportée par le genou, qu’elle soit reliée à l’obésité, aux sports intenses, à une altération biomécanique des structures de l’articulation ou à une exposition à des charges lourdes durant les activités occupationnelles, est considérée comme un facteur de risque important au développement de la gonarthrose. La gonarthrose reliée au travail a été le sujet de nombreuses études et plusieurs d’entre elles ont rapporté une prévalence accrue de la gonarthrose chez les travailleurs de certains domaines en particulier, comme la construction, la pose de plancher, la peinture, l’exploitation minière, l’agriculture et le travail en atelier et en milieu de la santé. Les personnes qui travaillent dans ces métiers sont exposées à des positions ou des activités nuisibles, comme travailler à genoux ou accroupi, monter des escaliers ou des échelles, transporter des changes lourdes et marcher de façon prolongée. Ces gestes surchargent l’articulation du genou, ce qui cause des modifications aux structures de l’articulation du genou ou aux adaptations neuromusculaires de patron de mouvement du genou. Ces modifications structurelles et adaptations neuromusculaires peuvent apporter des changements cinématiques à la marche qui peuvent initier la gonarthrose ou contribuer à sa progression. L’objectif principal de la présente étude était d’analyser l’effet d’une surcharge mécanique sur l’articulation fémoro-tibiale (AF-T) subie au travail lors d’une tâche de marche et comparer le patron cinématique de l’articulation fémoro-tibiale des travailleurs exposés à une surcharge mécanique à celui des travailleurs non exposés. Vingt-quatre travailleurs exposés à une surcharge mécanique et neuf travailleurs non exposés ont participé à l’étude. Les données cinématiques de la marche ont été enregistrées au niveau du genou dans des conditions cliniques en utilisant un système de suivi du mouvement électromagnétique. Les paramètres suivant ont été extraits et utilisés pour la comparaison des groupes : l’angle maximum lors du contact initial, l’angle ii maximum de flexion durant la réponse à la charge, l’angle minimum au moment de l’appui unipodal et l’étendue max-min du cycle. La comparaison des groupes pour les variables cliniques et cinématiques a été effectué par l’utilisation de tests-t bilatéraux (« Student-t tests ») et de tests ANCOVA utilisant le poids et la vitesse comme covariables. Les travailleurs exposés à une surcharge mécanique présentaient un plus grand angle de flexion de l’articulation fémoro-tibiale au contact initial, durant la réponse au chargement et à la phase unipodale et ils ont démontré une étendue d’angle moindre que les travailleurs non exposés. Nous croyons que les données cinématiques de la marche peuvent donner des idées sur les facteurs biomécaniques qui pourraient prédisposer les travailleurs au développement ou à la progression de la gonarthrose. Une meilleure compréhension de ces facteurs pourrait être un premier pas vers le développement d’une intervention plus efficace pour cette population.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires.