908 resultados para Mesures micro-ondes.
Resumo:
Un nombre significatif d’enfants autistes ont une macrocéphalie. Malgré plusieurs études du périmètre crânien en autisme, peu d’études ont été faites sur des adultes. Aussi, les références actuelles en périmètre crânien (PC) adulte datent d’environ 20 ans. Les objectifs de cette étude étaient de construire une échelle de référence du PC adulte, et de comparer les taux de macrocéphalie entre un groupe d’adultes autistes et un groupe d’adultes neurotypiques. Dans cette étude, 221 sujets masculins adultes étaient recrutés de différents milieux afin de déterminer le meilleur modèle prédictif du PC et de construire l’échelle de référence. La hauteur et le poids étaient mesurés pour chaque participant afin de déterminer leur influence sur les dimensions crâniennes. Pour la partie comparative, 30 autistes et 36 sujets neurotypiques, tous adultes, étaient recrutés à partir de la base de données du laboratoire de recherche. Pour l’échelle de référence, les résultats démontraient des corrélations positives entre le PC avec la hauteur et le poids. Après analyse, la corrélation conjointe de la hauteur et du poids sur le PC a été déterminée comme étant le modèle qui offre les résultats les plus significatifs dans la prédiction du PC. Pour la partie comparative, les taux de macrocéphalie atteignaient 10,00% chez les autistes contre 2,56% chez les neurotypiques selon la formule de régression linéaire obtenue du modèle. Cependant le test d’exactitude de Fisher n’a révélé aucune différence significative entre les 2 groupes. Mes résultats suggèrent qu’il est nécessaire de considérer la hauteur et le poids en construisant une référence du PC et que, même en utilisant la nouvelle référence, les taux de macrocéphalie demeurent plus élevés chez les autistes adultes que chez les adultes neurotypiques en dépit de l’absence de différences significatives.
Resumo:
Les modèles de réflexion complexes, avec leurs nombreux paramètres dont certains restent non intuitifs, sont difficiles à contrôler pour obtenir une apparence désirée. De plus, même si un artiste peut plus aisément comprendre la forme de la micro-géométrie d'une surface, sa modélisation en 3D et sa simulation en 4D demeurent extrêmement fastidieuses et coûteuses en mémoire. Nous proposons une solution intermédiaire, où l'artiste représente en 2D une coupe dans un matériau, en dessinant une micro-géométrie de surface en multi-couches. Une simulation efficace par lancer de rayons en seulement 2D capture les distributions de lumière affectées par les micro-géométries. La déviation hors-plan est calculée automatiquement de façon probabiliste en fonction de la normale au point d'intersection et de la direction du rayon incident. Il en résulte des BRDFs isotropes complètes et complexes, simulées à des vitesses interactives, et permettant ainsi une édition interactive de l'apparence de réflectances riches et variées.
Resumo:
"De plus en plus, la recherche en génétique s'attarde à identifier les mutations de gènes qui prédisposent les porteurs de ces mutations à des maladies complexes. La recherche tente également d'établir un lien entre le développement de la maladie pour certains porteurs en fonction de leur contexte socio-économique et de leur interaction avec l'environnement. Compte tenu de ces nombreux facteurs d'analyse, l'interprétation des caractéristiques génétiques d'un individu et du risque qui en découle s'avère particulièrement complexe. Or, cette complexité croissante se produit alors même que l'accès aux données génétiques se banalise et qu'il est maintenant possible pour quiconque d'obtenir une analyse personnalisée de son génome via l'internet. La discrimination génétique n'est pas définie en droit canadien ; il est généralement acquis que, dans le contexte de l'assurance-vie, celle-ci est susceptible d'avoir des conséquences désastreuses. Cependant, nous ne croyons pas que l'information d'ordre génétique doive être l'objet d'une approche exceptionnelle causant accrocs au droit général des assurances. D'autant plus, les conséquences du risque de discrimination génétique semblent davantage relevées de la crainte que de l'exercice d'une discrimination réelle. Dans ce contexte, il s'avère nécessaire d'évaluer les mesures de protection contre la discrimination génétique dans le contexte de l'assurance-vie. Pour ce faire, nous abordons, d'une part, les normes d'application générale en matière de protection contre la discrimination; normes parmi lesquelles la Charte des droits et libertés de la personne offre une protection intéressante. D'autre part, nous nous intéressons aux normes visant la discrimination spécifiquement génétique, notamment le nouvel Genetic Information Nondiscrimination Act et l'affaire Audet c. Industrielle-Alliance. Enfin, nous proposons des mesures minimales qui sauraient s'avérer utile pour préserver un juste équilibre."
Resumo:
Dans les études sur le transport, les modèles de choix de route décrivent la sélection par un utilisateur d’un chemin, depuis son origine jusqu’à sa destination. Plus précisément, il s’agit de trouver dans un réseau composé d’arcs et de sommets la suite d’arcs reliant deux sommets, suivant des critères donnés. Nous considérons dans le présent travail l’application de la programmation dynamique pour représenter le processus de choix, en considérant le choix d’un chemin comme une séquence de choix d’arcs. De plus, nous mettons en œuvre les techniques d’approximation en programmation dynamique afin de représenter la connaissance imparfaite de l’état réseau, en particulier pour les arcs éloignés du point actuel. Plus précisément, à chaque fois qu’un utilisateur atteint une intersection, il considère l’utilité d’un certain nombre d’arcs futurs, puis une estimation est faite pour le restant du chemin jusqu’à la destination. Le modèle de choix de route est implanté dans le cadre d’un modèle de simulation de trafic par événements discrets. Le modèle ainsi construit est testé sur un modèle de réseau routier réel afin d’étudier sa performance.
Resumo:
Sweatshop labour is sometimes defended from critics by arguments that stress the voluntariness of the worker’s choice, and the fact that sweatshops provide a source of income where no other similar source exists. The idea is if it is exploitation—as their opponents charge—it is mutually beneficial and consensual exploitation. This defence appeals to the non-worseness claim (NWC), which says that if exploitation is better for the exploited party than neglect, it cannot be seriously wrong. The NWC renders otherwise exploitative—and therefore morally wrong—transactions permissible, making the exploitation of the global poor a justifiable path to development. In this paper, I argue that the use of NWC for the case of sweatshops is misleading. After reviewing and strengthening the exploitation claims made concerning sweatshops, most importantly by refuting certain allegations that a micro-unfairness account of exploitation cannot evaluate sweatshop labour as exploitative, I then argue that even if this practice may seem permissible due to benefits otherwise unavailable to the global poor, there remains a duty to address the background conditions that make this form of wrong-doing possible, which the NWC cannot accommodate. I argue that the NWC denies this by unreasonably limiting its scope and is therefore incomplete, and ultimately unconvincing.
Resumo:
Ce mémoire présente une analyse indirecte détaillée des niveaux de la fécondité de la population canadienne au XIXe siècle. L’exploitation des recensements canadiens de 1852 et 1881 est rendue possible grâce au Programme de recherche en démographie historique (PRDH) constituant ainsi la source de données sur laquelle s'appuie ce mémoire. Une analyse critique du recensement canadien de 1852 établit qu’il est représentatif pour ce qui est de l’âge des individus, du sexe, de l’état matrimonial, du lieu de naissance et du type de maison habitée, malgré la destruction de près d’un tiers de ses manuscrits avant d’avoir été transposés sur microfilm. De plus, l’impact de l’absence totale ou partielle des données pour les villes est mitigé, car moins de 10 % de la population était établi en ville cette année-là. L’utilisation de micro-données censitaires permet d’élaborer différentes mesures de la fécondité, telles que le rapport enfants par femme et la méthode des enfants propres. Des résultats inédits sont d'ailleurs présentés, notamment à l’aide du recensement de 1852, car ces données n’ont pas encore été exploitées, permettant ainsi d’allonger dans le temps l’analyse de la fécondité.Une analyse différentielle du risque qu’ont les femmes mariées âgées entre 40 et 49 ans vivant avec un enfant de moins de 5 ans a démontré que la fécondité effective était plus élevée chez les femmes catholiques nées au Canada, appartenant au groupe d’âge plus jeune (40-44 ans), vivant en zone rurale et ayant un mari cultivateur. Nous concluons que ces associations sont évidentes autant en 1852 qu’en 1881.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
En dépit du nombre croissant d’études cliniques sur le canal artériel (CA), des failles méthodologiques entretiennent plusieurs incertitudes concernant l’efficacité et la sécurité des traitements chez les bébés nés prématurés. L’objectif de cette recherche était de comparer les concentrations de prostaglandine E2 (PGE2) et les mesures du flux mésentérique par échographie Doppler chez les enfants nés prématurément et ayant un canal artériel traité à l’ibuprofène par voie intraveineuse ou entérale, en utilisant la méthodologie randomisée contrôlée et à double insu. Dans notre étude pilote, 20 nouveau-nés prématurés de moins de 34 semaines ayant un CA symptomatique confirmé par échocardiographie, furent randomisés au traitement à l’ibuprofène par voie intraveineuse ou entérale. La voie d’administration fut maintenue à l’insu de l’équipe traitante, des cardiologues et des investigateurs. Des dosages des prostaglandines plasmatiques ont été mesurés avant le début du traitement ainsi que 3, 24 et 48 h après le début du traitement. Les mesures du flux mésentérique ont été effectuées avant le traitement à l’ibuprofène ainsi que 1 h et 3 h après le traitement. Nous avons démontré à partir de nos observations que les niveaux plasmatiques de prostaglandines E2 diminuent chez les patients ayant répondu au traitement à l’ibuprofène, indépendamment de la voie d’administration. Nous n’avons pas observé de changement dans l’évolution des dosages de PGE2 chez les patients qui n’ont pas répondu au traitement. Les paramètres mesurés par échographie Doppler au niveau de l’artère mésentérique supérieure n’étaient pas affectés par la voie d’administration du traitement à l’ibuprofène, intraveineuse ou entérale. La présente étude suggère ainsi que le traitement du CA par ibuprofène intraveineux ou entéral n’influe pas sur le flux sanguin mesuré par échographie Doppler. La baisse de la prostaglandine E2 coïncide avec la fermeture du CA, et son dosage pourrait jouer un rôle dans la gestion du traitement. Nous avons démontré la faisabilité d’une étude clinique randomisée à double insu dans le traitement du canal artériel; une méthodologie qui devrait désormait être employé dans la recherche clinique sur les traitements de la persistance du CA.
Resumo:
Cette étude analyse l’impact du processus libéral de paix en République Démocratique du Congo sur la poursuite des violences dans les provinces du Nord et du Sud Kivu. Elle soutient que les dynamiques conflictuelles dans ces deux régions sont entretenues par l’établissement d’un programme de partage de pouvoir (power sharing), inclusif, jumelé à l’application des réformes économiques libérales. En se concentrant sur la réforme du secteur de sécurité et l’harmonisation de la politique nationale (en vue des élections post-conflictuelles de 2006), le processus de paix néglige les enjeux politiques et socio-économiques locaux. Le désengagement de l’État et la libéralisation du secteur minier accentuent le taux de corruption du gouvernement de transition et renforcent l’exploitation illégale des ressources par les groupes armés. Cette recherche soutient que l’implantation massive d’entreprises minières multinationales dans les provinces du Nord et du Sud Kivu aggrave la déformation des tissus socio-économiques locaux, accentue la dépendance des populations aux réseaux de gouvernance informelle et renforce les divers groupes armés présents sur le terrain. Par conséquent, les réformes structurelles menées dans le cadre du processus libéral de paix font perdurer les violences et occasionnent de nouvelles dynamiques conflictuelles localisées autour du contrôle des ressources locales, qu’elles soient d’ordre économique ou politique.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Le réalisme des objets en infographie exige de simuler adéquatement leur apparence sous divers éclairages et à différentes échelles. Une solution communément adoptée par les chercheurs consiste à mesurer avec l’aide d’appareils calibrés la réflectance d’un échantillon de surface réelle, pour ensuite l’encoder sous forme d’un modèle de réflectance (BRDF) ou d’une texture de réflectances (BTF). Malgré des avancées importantes, les données ainsi mises à la portée des artistes restent encore très peu utilisées. Cette réticence pourrait s’expliquer par deux raisons principales : (1) la quantité et la qualité de mesures disponibles et (2) la taille des données. Ce travail propose de s’attaquer à ces deux problèmes sous l’angle de la simulation. Nous conjecturons que le niveau de réalisme du rendu en infographie produit déjà des résultats satisfaisants avec les techniques actuelles. Ainsi, nous proposons de précalculer et encoder dans une BTF augmentée les effets d’éclairage sur une géométrie, qui sera par la suite appliquée sur les surfaces. Ce précalcul de rendu et textures étant déjà bien adopté par les artistes, il pourra mieux s’insérer dans leurs réalisations. Pour nous assurer que ce modèle répond aussi aux exigences des représentations multi-échelles, nous proposons aussi une adaptation des BTFs à un encodage de type MIP map.
Resumo:
Les ondes lentes (OL) et les fuseaux de sommeil (FS) caractérisent le sommeil lent. Ces ondes sont particulièrement vulnérables aux effets du vieillissement, et ce, dès le milieu de l’âge adulte. La signification fonctionnelle de ces changements demeure toutefois inconnue. Les OL constituent des marqueurs sensibles de la pression homéostatique au sommeil qui augmente avec la durée de l’éveil et qui diminue avec la durée de sommeil. L’hypothèse que les changements des OL puissent refléter une altération de la régulation homéostatique demeure toujours matière à débat dans la littérature. D’autre part, les FS et les OL ont tous deux été associés à la plasticité cérébrale et à la cognition. La correspondance entre les ondes en sommeil lent et le fonctionnement cognitif au cours du vieillissement normal demeure peu étudiée et les résultats sont inconsistants. L’objectif de cette thèse est de déterminer comment l’âge affecte la réponse homéostatique des OL et d’évaluer l’association entre les caractéristiques des ondes en sommeil lent et les performances cognitives chez des personnes d’âge moyen et âgées. La première étude a évalué l’effet de 25 heures d’éveil sur les OL durant un épisode de sommeil de récupération diurne chez de jeunes adultes et des personnes d’âge moyen. Comparativement aux jeunes, les personnes d’âge moyen ont montré une augmentation atténuée de la densité des OL après la privation de sommeil. Elles ont également montré une augmentation plus faible de la synchronisation neuronale durant une OL dans les régions frontales et préfrontales, mesurée par l’amplitude et la pente des OL. La deuxième étude a évalué le lien prédictif des OL, des FS et de l’architecture du sommeil sur les performances à des tests neuropsychologiques mesurant les capacités attentionnelles, les fonctions exécutives et les capacités d’apprentissage verbal chez des participants d’âge moyen et âgés en bonne santé. Seule la fluence verbale était associée à la densité et à la pente des OL. Les OL ne semblent donc pas constituer un marqueur stable du fonctionnement cognitif. Comparativement aux OL, les caractéristiques des FS étaient associées de façon plus systématique aux performances cognitives et plus particulièrement aux capacités d’apprentissage et aux fonctions attentionnelles. Dans l’ensemble, cette thèse suggère que l’augmentation plus faible de la synchronisation neuronale dans les régions antérieures après une privation de sommeil est expliquée par une plasticité synaptique réduite chez les personnes d’âge moyen comparativement aux jeunes. Par ailleurs, la capacité à générer une activité neuronale synchronisée, mesurée par les OL, ne prédit ni la capacité à maintenir le sommeil durant le jour, ni les fonctions cognitives de façon consistante. Les FS, quant à eux, représentent un meilleur marqueur du fonctionnement cognitif au cours du vieillissement normal. Les FS pourraient refléter une meilleure intégrité anatomique/physiologique des réseaux neuronaux impliqués dans les capacités attentionnelles et d’apprentissage.
Resumo:
Le somnambulisme est une parasomnie commune, caractérisée par des éveils incomplets lors des stades de sommeil lent, au cours desquels les individus atteints présentent des comportements moteurs d’une complexité variable accompagnés de confusion et d’un jugement altéré. La littérature actuelle suggère que ce trouble serait associé à des particularités de l’activité en ondes lentes et des oscillations lentes, deux indices de l’intégrité du processus homéostatique et de la profondeur du sommeil. Toutefois, en raison de certaines lacunes méthodologiques dans les études existantes, le rôle de ces marqueurs électroencéphalographiques dans la pathophysiologie du somnambulisme reste à éclaircir. Notre premier article a donc investigué d’éventuelles anomalies de l’activité en ondes lentes et des oscillations lentes chez les somnambules, en comparant leur sommeil au cours de la nuit entière à celui de participants contrôles. De plus, comme les somnambules semblent réagir différemment (en termes de fragmentation du sommeil notamment) des dormeurs normaux à une pression homéostatique accrue, nous avons comparé l’activité en ondes lentes et les oscillations lentes en nuit de base et suite à une privation de sommeil de 38 heures. Les résultats de nos enregistrements électroencéphalographiques chez 10 somnambules adultes et neuf participants contrôles montrent une élévation de la puissance spectrale de l’activité en ondes lentes et de la densité des oscillations lentes en nuit de récupération par rapport à la nuit de base pour nos deux groupes. Toutefois, contrairement à plusieurs études précédentes, nous ne n’observons pas de différence entre somnambules et dormeurs normaux quant à l’activité en ondes lentes et aux oscillations lentes pour aucune des deux nuits. Au-delà ce certaines considérations méthodologiques ayant pu contribuer à ce résultat inattendu, nous croyons qu’il justifie un questionnement sur l’hétérogénéité des somnambules comme population. Notre deuxième article s’est penché sur les facteurs électroencéphalographiques transitoires susceptibles d’être associés au déclenchement des épisodes de somnambulisme. Nous avons comparé les fluctuations d’activité en ondes lentes et des oscillations lentes dans les minutes avant des épisodes de somnambulisme spontanés (c.a.d.: non associés à un stimulus identifiable) à celles survenant avant des éveils normaux comparables chez 12 somnambules adultes. Nous montrons que, comparativement aux éveils normaux, les épisodes de somnambulisme sont précédés d’un sommeil plus profond, tel qu’indiqué par une plus grande densité spectrale de l’activité en ondes lentes et une plus grande densité des oscillations lentes. Cet approfondissement du sommeil, spécifique aux épisodes de somnambulisme, semble survenir sur un laps de temps relativement long (>3 minutes), et non abruptement au cours des secondes précédant l’épisode. Ces données ouvrent un questionnement quant aux mécanismes en jeu dans la survenue des épisodes de somnambulisme spontanés. Globalement, cette thèse suggère que des phénomènes liés à l’activité en ondes lentes et aux oscillations lentes seraient liés au déclenchement des épisodes de somnambulisme, mais que des études supplémentaires devront être menées afin de délimiter le rôle précis que ces marqueurs jouent dans la pathophysiologie du somnambulisme.
Resumo:
Problématique : La quantification de l’intégrité du tendon d’Achille (TA) représente un défi en réadaptation. L’adoption de mesures quantitatives du TA, extraites à partir d’une image ultrasonographique (QUS), pourrait remédier à cette lacune. Objectifs : 1) Évaluer la fiabilité test-retest et la précision de mesures QUS du TA; 2) Déterminer le meilleur protocole de collecte de mesures QUS à employer en pratique clinique. Méthodologie : Un total de 23 TAs présentant des symptômes d’une tendinopathie achilléenne et 63 TAs asymptomatiques ont été évalués. Pour chaque TA, 8 images ont été enregistrées (2 visites * 2 évaluatrices * 2 images). Différents types de mesures QUS ont été prises : géométriques (épaisseur, largeur, aire), dérivées d’un histogramme des niveaux de gris et dérivées d’une matrice de co-occurrence. Une étude de généralisabilité a quantifié la fiabilité et la précision de chaque mesure QUS et une étude de décision a fait ressortir les meilleurs protocoles de prise de mesures. Résultats : Les mesures géométriques ont démontré une excellente fiabilité et précision. Les mesures dérivées de l’histogramme des niveaux de gris ont démontré une fiabilité et précision médiocres. Les mesures dérivées d’une matrice de co-occurrence ont démontré une fiabilité modérée à excellente et une précision variable. En pratique clinique, il est recommandé de moyenner les résultats de trois images collectées par un évaluateur lors d’une visite. Conclusion : L’utilisation des mesures QUS géométriques permet de quantifier l’intégrité du TA (clinique et recherche). Davantage d’études sur les mesures QUS dérivées d’une matrice de co-occurrence s’avèrent nécessaires.
Resumo:
Compte-rendu / Review