986 resultados para Procédure commerciale -- Dictionnaires


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les violations aux droits humains causent des milliers de victimes chaque année, des mécanismes de justice sont élaborés afin de répondre à ces crimes, mais les victimes demeurent peu consultées. Par le biais d’entretiens semi-directifs, cette étude présente le point de vue et les attentes des victimes de crimes contre l’humanité du Cambodge et du Rwanda sur la justice. La justice sociale constitue le cadre théorique de cette étude. Les résultats montrent que la justice pénale est centrale à la définition de la justice. La réparation et la vérité en constituent aussi les éléments essentiels. Toutefois, la capacité des tribunaux à rendre compte de la vérité est critiquée par les répondants créant un écart entre ce qu’elles veulent et ce qu’elles obtiennent. La qualité de la prise de décision et du traitement interpersonnel favorise aussi la perception de justice du point de vue des victimes. Les différentes composantes de la justice perçues, comme la punition, la réparation et la procédure, varient toutefois en fonction du contexte social et historique de la victimisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Je défends actuellement trois capacités éthiques et discursives en faveur de la réalisation des êtres humains: 1) La capacité de se comprendre soi-même ; 2) La capacité de faire reposer ses jugements sur un dialogue avec les personnes concernées ; 3) La capacité de mettre en oeuvre -avec autrui- les projets de justice convenus conjointement. Je les considère ici comme des capacités visant à la «reconnaissance mutuelle». Je soutiens que les types de relation à soi du sujet qui ont été définis par Axel Honneth complètent la capacité de se comprendre soi-même. Honneth propose également une idée de justice que la deuxième capacité mentionnée réexamine. Cependant, à partir de la troisième capacité, je remets en question le concept de «lutte» chez Honneth, en présentant les avantages de la coresponsabilité. Je montre ensuite que ces trois capacités peuvent constituer des indicateurs dans toutes les sphères de la société qui sont aux prises avec des questions éthiques importantes et je donne pour exemple le milieu des entreprises. Enfin, je défends une procédure qui vise à mesurer ces indicateurs au moyen de données concrètes. Cette procédure nous permettra d’estimer la grandeur éthique d’une société grâce à l’évaluation des «capacités éthiques» de ses citoyens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les protéines sont les macromolécules les plus polyvalentes de la cellule. Elles jouent un rôle fondamental dans la majorité des processus biologiques à travers la formation de complexes multi-protéiques. Durant la transcription, une multitude de facteurs sont impliquées dans le contrôle de l’activité des complexes ARN polymérases. Notre laboratoire s’est intéressé au réseau d’interaction de la machinerie de transcription des ARN polymérases nucléaires, dans le but de mieux comprendre leurs mécanismes de régulation. Pour ce faire, une procédure protéomique comprenant la purification de complexes protéiques par affinité couplée à la spectrométrie de masse et à l’analyse bioinformatique a été développée. La méthode de purification TAP (Tandem Affinity Purification) a été adaptée pour permettre la purification de complexes protéiques solubles assemblés in vivo à partir de cellules humaines. L’objectif de mon projet de maîtrise était de purifier le complexe de l’ARN Pol I ainsi que de poursuivre l’expansion du réseau d’interactions protéine-protéine de la machinerie de transcription de l’ARN Pol II humaine. À l’aide des protéines POLR1E, TWISTNB, POLR2E, PFDN4, MBD2, XPA, CAND1 et PDCD5 étiquetées (TAP-tag) exprimées dans des lignées cellulaires ECR-293, plusieurs complexes protéiques solubles ont été purifiés et analysés par spectrométrie de masse. Les interactions protéiques ont été triées et validées bioinformatiquement pour donner en final une liste d’interactions ayant un haut degré de confiance à partir de laquelle des réseaux d’interactions protéine-protéine ont été créés. Le réseau créé au cours de ce projet connecte plusieurs composantes de la machinerie transcriptionnelle tels que les ARN Pol I, II et III, les complexes RPAP3/R2TP/prefoldin-like, TRiC/CCT, Mi-2/NuRD et des facteurs de transcription et de réparation de l’ADN. Ce type d’analyse nous a permis d’identifier et de caractériser de nouveaux régulateurs de la machinerie de transcription de l’ARN Pol I et II et de mieux comprendre son fonctionnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une multitude de recherches évaluatives ont démontré que les victimes de crime, qu’elles soient victimes d’un crime contre les biens ou contre la personne, apprécient l’approche réparatrice. Cependant, nous sommes toujours à la recherche des facteurs théoriques qui expliqueraient la satisfaction des victimes en ce qui concerne leur expérience avec les interventions réparatrices. La recherche décrite dans cette thèse concerne l’exploration des facteurs contribuant à la satisfaction des victimes de crime avec l’approche réparatrice ainsi que ses liens avec la théorie de justice procédurale. Selon la théorie de justice procédurale, la perception de justice n’est pas uniquement associée à l’appréciation du résultat d’une intervention, mais également à l’appréciation de la procédure, et que la procédure et le résultat peuvent être évalués de façon indépendante. Les procédures qui privilégient la confiance, la neutralité et le respect, ainsi que la participation et la voix des parties sont plus appréciées. Notre objectif de recherche était d’explorer l’analogie entre l’appréciation de la justice réparatrice et le concept de justice procédurale. En outre, nous avons voulu déterminer si la justice réparatrice surpasse, en termes de satisfaction, ceux prévus par la théorie de justice procédurale. Nous avons également examiné la différence dans l’appréciation de l’approche réparatrice selon le moment de l’application, soit avant ou après adjudication pénale. Ainsi, nous avons exploré le rôle d’une décision judiciaire dans l’évaluation de l’approche réparatrice. Pour répondre à nos objectifs de recherche, nous avons consulté des victimes de crime violent au sujet de leur expérience avec l’approche réparatrice. Nous avons mené des entrevues semi-directives avec des victimes de crime violent qui ont participé à une médiation auteur-victime, à une concertation réparatrice en groupe ou aux rencontres détenus-victimes au Canada (N=13) et en Belgique (N=21). Dans cet échantillon, 14 répondants ont participé à une intervention réparatrice avant adjudication judiciaire et 14 après adjudication. Nous avons observé que l’approche réparatrice semble être en analogie avec la théorie de justice procédurale. D’ailleurs, l’approche réparatrice dépasse les prémisses de la justice procédurale en étant flexible, en offrant de l’aide, en se concentrant sur le dialogue et en permettant d’aborder des raisons altruistes. Finalement, le moment de l’application, soit avant ou après adjudication, ne semble pas affecter l’appréciation des interventions réparatrices. Néanmoins, le rôle attribué à l’intervention réparatrice ainsi que l’effet sur l’évaluation du système judiciaire diffèrent selon le moment d’application. Les victimes suggèrent de continuer à développer l’approche réparatrice en tant que complément aux procédures judiciaires, plutôt qu’en tant que mesure alternative. Les témoignages des victimes servent la cause de l’offre réparatrice aux victimes de crime violent. L’offre réparatrice pourrait aussi être élargie aux différentes phases du système judiciaire. Cependant, la préférence pour l’approche réparatrice comme complément aux procédures judiciaires implique la nécessité d’investir également dans la capacité du système judiciaire de répondre aux besoins des victimes, tant sur le plan de la procédure que sur le plan du traitement par les autorités judiciaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des études précédentes ont montré qu’une carence en vitamine E prédispose à la myopathie du poulet de chair. L’effet d’un ajout de vitamine E dans la diète commerciale sur la dégénérescence des fibres musculaires de la poitrine et de la cuisse a été étudié chez les poulets de chair. Des poulets mâles ROSS 308 (n = 1100) ont été assignés de façon aléatoire à deux traitements alimentaires (aliment commercial + 25 à 50 mg de vitamine E surajouté par kg vs aliment commercial + 0 mg de vitamine E supplémentaire). Les poulets ont été répartis sur 10 parquets (cinq répétitions par traitement). Le poids corporel et la consommation d’aliment ont été mesurés hebdomadairement. Aux jours j28, j35, j42 et j49, du sang a été prélevé pour mesurer le niveau de vitamine E et l’activité de la créatine kinase (CK). Les muscles Pectoralis superficialis et Adductor magnus ont été prélevés pour des analyses histologiques aux jours j28, j42 et j49; les fibres dégénérées ont été dénombrées sur chaque muscle prélevé. La concentration plasmatique de vitamine E était plus élevée dans le groupe supplémenté (P = 0.001). L’activité de la CK n’était pas différente dans les deux groupes (P = 0.20) mais très élevée, et n’était pas toujours en relation avec les dommages musculaires, à cause de grandes fluctuations de la CK entre les individus du même groupe. Le nombre de fibres endommagées était plus élevé dans le muscle Pectoralis superficialis (poitrine) que dans le muscle Adductor magnus (cuisse) dans les deux groupes; il y avait aussi moins de fibres dégénérées à j28 dans la poitrine des poulets qui ont reçus la diète supplémentée. Ces résultats suggèrent que l’ajout de vitamine E à la diète conventionnelle augmente le niveau de vitamine E dans le plasma et dans les tissus, diminue le nombre de fibres dégénérées dans la poitrine des jeunes poulets sans pour autant modifier la conversion alimentaire. La mesure de l’activité plasmatique de la CK ne saurait suffire à elle seule pour détecter précocement la myopathie nutritionnelle dans les élevages de poulets de chair.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les plantes médicinales jouent un rôle central, tant pour la médicine traditionnelle de certaines cultures, que pour la satisfaction d’une demande commerciale, souvent lointaine. Face à la forte pression qui pèse actuellement sur les populations de plantes médicinales - due à l'augmentation de la surexploitation commerciale et à la perte d'habitats - il est crucial de trouver des options qui permettront une gestion durable de cette ressource tout en contribuant à maintenir le bien-être socioéconomique des communautés locales qui en dépendent. Ainsi il est important de comprendre les perceptions que les populations ont des plantes médicinales, de la façon de les exploiter et de les gérer. L’objectif, donc, de ce projet est de mieux comprendre les interactions existantes entre savoir traditionnel et gestion des plantes médicinales. La présente étude de cas constitue une étude géographique et ethnobotanique inductive/exploratoire. Nous dressons dans cette recherche le portrait des dynamiques utilisées par les communautés Nahuas de la Huasteca Potosina pour la gestion des plantes médicinales. L’information qui est présentée a été obtenue par une combinaison de données descriptives, historiques, qualitatives, quelques unes quantitatives, qui sont le produit d’une revue bibliographique et d’un travail de terrain. Notre recherche démontre un éventail de pratiques de gestion, d’intérêts, de valeurs ainsi que de représentations sociales des plantes médicinales au sein d’une même ethnie. Cette étude met en évidence l’importance des pratiques locales de gestion pour élaborer des recommandations dans le domaine de la gestion durable des plantes médicinales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement fulgurant noté dans le domaine des biotechnologies peut être attribué, sinon essentiellement du moins partiellement, à l’utilisation des ressources génétiques (RG) et des savoirs traditionnels (ST) acquis sur ces ressources. Ces ressources et ces savoirs sont, notamment, utilisés dans le cadre d’inventions biotechnologiques qui peuvent s’avérer concluantes et faire l’objet de demande de protection par brevet. Ce développement ne s’est tout de même pas réalisé sans heurts majeurs, il l’a été au prix de tumultueuses oppositions. En effet, la découverte progressive de la valeur commerciale et scientifique de telles ressources et de tels savoirs a fait naître des intérêts et attisé des rivalités qui ont fini par opposer fournisseurs et utilisateurs de ces matériels. Force est de constater que parmi leurs divergences, celle qui se rapporte au partage des avantages fait l’objet de discussions des plus âpres qui soient dans le domaine. Une solution qui a été, aussi, envisagée a porté sur les régimes d’accès et de partage des avantages. Ce partage des avantages, les pays fournisseurs espèrent le réaliser par le biais de l’obligation de divulguer l’origine des RG et des ST dans les demandes de brevets. L’application d’une telle exigence connaît des limites en ce sens qu’elle est d’application territoriale. C’est sur la base d’un tel constat que les pays fournisseurs envisagent d’en faire une obligation reconnue et applicable à un niveau international. Dans le cadre de cette étude, nous essaierons de démontrer que l’obligation de divulguer l’origine des RG et des ST dans les demandes de brevets, telle qu’elle est actuellement appliquée, ne constitue pas un moyen pertinent qui permettrait d’en arriver à un partage juste et équitable des avantages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.