231 resultados para Principe des possibilités alternatives


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Notre analyse du rôle de l’association La ronde des poètes dans la lutte pour l’autonomie de la littérature camerounaise s’est appuyée sur l’approche sociologique de Pierre Bourdieu pour qui la société est constituée de champs spécifiques en lutte les uns contre les autres pour atteindre un statut privilégié dans le champ social, ce qui constitue un aspect de leur autonomie. Selon Bourdieu, l’étude des manifestations de l’autonomie des champs littéraires devrait tenir compte de toutes les actions entreprises par les agents dudit champ. En effet, ces différentes actions ne sont que des stratégies de lutte. Seulement, d’après Jacques Dubois, l’autonomie des littératures nationales n’est acquise que lorsque celles-ci possèdent un appareil institutionnel propre capable d’assurer seul la production et la diffusion des œuvres, la légitimation et la consécration des écrivains. Si toutes ces conditions réunies échappent encore à plusieurs littératures de l’Afrique subsaharienne, il n’en demeure pas moins que ces dernières sont engagées dans un processus de lutte pour leur autonomie, ce que prouve l’exemple de La ronde des poètes, notre prétexte pour observer les manifestations de l’autonomie au sein du champ littéraire camerounais. Les stratégies de lutte de La ronde des poètes sont d’émergence et de fonctionnement. Pour le premier cas, la formule associative qui donne plus de possibilités que ne pourrait avoir un auteur isolé, le choix de la poésie aussi qui est un genre dont la production des œuvres ne nécessite pas de gros moyens financiers, nous sont apparus comme des stratégies ayant permis aux membres de La ronde des poètes de devenir des écrivains dans un contexte de production défavorable. De plus, par leurs textes fondateurs, ils se définissent comme un groupe ayant un programme d’action bien établi. Par ailleurs, ils attirent sur eux l’attention en se proclamant avant-gardistes et, pour le montrer, publient des manifestes et se détournent, idéologiquement parlant, de la poétique de la négritude dont la fixation sur la race a dominé la création littéraire pendant plusieurs décennies en Afrique. Les stratégies d’émergence de La ronde des poètes ont travaillé à l’identification de cette association comme un élément du champ littéraire camerounais ayant sa place aux côtés d’autres acteurs existant déjà dans ce champ. Pour ce qui est des stratégies de fonctionnement, La ronde des poètes s’est dotée d’un statut légal en se faisant enregistrer auprès des autorités camerounaises, ce qui la consolide dans son champ social. Sur le plan littéraire, ses membres lui confèrent un caractère institutionnel en créant en son sein des formes d’instances littéraires. Leurs ateliers d’écriture assurent la création des œuvres, les instances de diffusion prennent chez eux la forme d’un bulletin hebdomadaire, « Le rondin », mais surtout d’une revue, Hiototi : Revue camerounaise de poésie, de lettres et de culture. Cette revue recueille les articles de critiques littéraires formés à La ronde des poètes et de ceux du Cameroun. Le « Prix de la poésie rondine » est leur instance de consécration interne. Cette association réussit ainsi à obtenir la reconnaissance de pairs, poètes et écrivains camerounais et étrangers, celle aussi d’autorités camerounaises et internationales. En somme, la réunion de ces instances institutionnelles montre combien la marche vers l’autonomie de la littérature camerounaise en général est réelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’étude qui nous concerne vise à mieux comprendre la violence en milieu carcéral. C’est à l’aide d’entrevues menées auprès de treize hommes incarcérés à l’Unité spéciale de détention, une unité canadienne spécifiquement conçue pour loger des personnes qui ont fait usage de violence intra murale ou sont soupçonné de l’avoir fait, que nous avons tenté d’atteindre l’objectif principal de ce projet. Plus spécifiquement, le point de vue des participants a été recueilli sur l’incarcération, sur les moyens utilisés afin de s’accoutumer aux défis de l’enfermement ainsi que la manière dont les individus justifient l’usage de violence dans ce contexte. Les résultats de nos analyses suggèrent que le milieu carcéral est un monde hostile et imprévisible où les individus se perçoivent constamment vulnérables à de multiples formes d’agression. Placés en hyper vigilance et orientés vers la survie, les détenus font usage de diverses stratégies d’adaptation afin de répondre aux situations difficiles qu’ils rencontrent en contexte de perte de liberté. La violence représente donc un des moyens dont disposent les individus pour survivre à l’intérieur des murs. Les diverses formes d’adaptation violente rencontrées en milieu carcéral peuvent ainsi informer sur les enjeux de survie présents dans un milieu et donc, du risque de violence ou de victimisation dans ce milieu, que cette violence soit interpersonnelle, collective, auto dirigée, axée sur la fuite ou contre les biens. Puisque l’usage de violence par une personne engendre une possibilité accrue de choisir la violence pour une autre, et ce, avec les conséquences qui s’en suivent pour les détenus et les membres du personnel, nous avons tenté d’identifier et de comprendre les diverses logiques d’action qui motivent le choix d’avoir recours à la violence dans les institutions carcérales. Or, il appert que certaines caractéristiques des individus tendent à faire augmenter le risque pour une personne d’avoir recours à la violence carcérale. De même, il semble que certaines institutions sont davantage propices à l’usage de violence que d’autres. De surcroît, des éléments appartenant aux individus et au milieu en interrelation semblent favoriser la possibilité qu’un condamné fasse usage de violence intra murale. Ainsi, le recours à la violence est davantage probable si elle est légitimée par les individus et le milieu, si le niveau d’adhésion aux valeurs des sous-cultures délinquantes des individus est élevé et si la philosophie du milieu en favorise le maintien, si des groupes influents en quête de contrôle et de pouvoir sont présents dans le milieu et qu’un individu désire y être affilié, s’il y a présence de marchés illicites comme réponse à la privation et qu’un individu y participe ou encore, si le milieu et l’individu sont pris dans l’engrenage d’un climat de survie. Par conséquent, une réflexion concernant le sentiment de sécurité préoccupant les reclus, sentiment qui est un besoin fondamental chez tous les êtres humains, un retour sur les divers modèles théoriques en fonction des données que nous avons obtenues ainsi qu’une réflexion portant sur les moyens dont disposent les individus et le milieu afin de diminuer les possibilités que la violence soit utilisée, ont été amorcées en conclusion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ma thèse doctorale, j'étudie trois facteurs importants qui caractérisent le commerce international : les différences technologiques entre les pays, les barrières à l'entrée sous la forme de coûts fixes et la migration internationale. Le premier chapitre analyse si les différences technologiques entre les pays peuvent expliquer la spécialisation dans le commerce international entre les pays. Pour mesurer le niveau de la spécialisation, je calcule les index de concentration pour la valeur des importations et des exportations et décompose la concentration totale dans la marge de produits extensive (nombre de produits commercialisés) et la marge de produits intensive (volume de produits commercialisés). En utilisant des données commerciales détaillées au niveau du produit dans 160 pays, mes résultats montrent que les exportations sont plus concentrées que les importations, que la spécialisation se produit principalement au niveau de la marge intensive du produit, et que les économies plus grandes disposent d'importations et d'exportations plus diversifiées, car elles commercialisent plus de produits. Compte tenu de ces faits, j'évalue la capacité du modèle Eaton-Kortum, le principal modèle de la théorie ricardienne du commerce, pour représenter les preuves empiriques. Les résultats montrent que la spécialisation à travers l'avantage comparatif induit par les différences de technologie peut expliquer les faits qualitatifs et quantitatifs. De plus, j'évalue le rôle des déterminants clés de la spécialisation : le degré de l'avantage comparatif, l'élasticité de la substitution et la géographie. Une implication de ces résultats est qu'il est important d’évaluer jusqu'à quel point la volatilité de production mesurée par la volatilité du PIB est motivée par la spécialisation des exportations et des importations. Étant donné le compromis entre l'ouverture du commerce et la volatilité de production, les bénéfices tirés du commerce peuvent s'avérer plus faibles que ceux estimés précédemment. Par conséquent, les politiques commerciales alternatives telles que l'ouverture graduelle au commerce combinée à la diversification de la production pour réduire la concentration de l'exportation peuvent se révéler être une meilleure stratégie que l'approche du laissez-faire. En utilisant la relation entre la taille du marché et l’entrée de firmes et produits, le deuxième chapitre évalue si les barrières à l'entrée sous la forme de coûts fixes à exporter sont au niveau de la firme ou au niveau du produit. Si les coûts fixes se trouvent au niveau de la firme, la firme multiproduits a un avantage de coût de production par rapport aux autres firmes parce qu’elles peuvent diviser les coûts fixes sur plusieurs produits. Dans ce cas, le commerce international sera caractérisé par peu de firmes qui exportent beaucoup des produits. Si les coûts fixes sont au niveau du produit, l’entrée d’un produit est associée avec l’entrée de plusieurs firmes. La raison est qu’une fois que la première firme entre et paye les coûts fixes du produit, elle crée un effet d’entrainement qui réduit les coûts fixes pour des firmes rivales. Dans ce cas, le commerce international sera caractérisé par plusieurs firmes qui vendent des variétés différentes du même produit. En utilisant des données détaillées provenant de 40 pays exportateurs à travers 180 marchés de destination, mes résultats montrent que les barrières à l'entrée se trouvent principalement au niveau du produit. Un marché plus large favorise l'expansion d'un plus grand nombre d’entreprises au sein d'une catégorie de produit plutôt que de permettre aux entreprises produisant plusieurs produits de croître dans une gamme de produits. En regardant la différence entre le nombre d'exportateurs au sein d'une catégorie de produit dans des destinations données, je trouve que le taux d'entrée de firmes augmente significativement après qu'un produit entre la première fois dans le marché. J'en déduis donc que le premier entrant réduit les coûts fixes pour les firmes suivantes. Mes recherches démontrent également que malgré une plus grande compétition sur le marché du produit, les entreprises disposent de revenus d'exportation supérieurs et sont plus susceptibles de rester sur les marchés internationaux. Ces résultats sont cohérents avec l’hypothèse que l’effet d’entrainement incite l'entrée de firmes rivales et permettent aux entreprises de produire à plus grande échelle. Cette recherche dévoile un nombre de conclusions importantes. D'abord, les politiques commerciales encouragent l'entrée de nouveaux produits, par exemple, en promouvant des produits dans les marchés de destination entraînant ainsi des retombées qui se traduiront par un taux de participation plus élevé de l'entreprise et une croissance de l'exportation. Deuxièmement, les consommateurs du pays importateur peuvent bénéficier de prix plus bas pour le produit en réduisant les barrières techniques du commerce. Troisièmement, lorsque l'on effectue des expérimentations politiques sous la forme de réduction des coûts commerciaux, il est de coutume de considérer uniquement une baisse des coûts marginaux et d'évaluer les répercussions sur le bien-être du consommateur. Cependant, un élément important des accords commerciaux est la réduction des barrières techniques au commerce grâce à la négociation de normes communes pour un produit. Négliger l'existence des barrières à l'entrée et les conséquences des réaffectations de l'industrie affaiblit l'impact des réformes commerciales. Le troisième chapitre prend en compte le rôle de l'information dans la facilitation du commerce international. Les immigrants réduisent les coûts de transaction dans le commerce international en fournissant des informations sur les possibilités d'échange avec leur pays d'origine. En utilisant des données géographiques détaillées sur l'immigration et les importations aux États-Unis entre 1970 et 2005, je quantifie l'incidence qu'ont les nouveaux immigrants sur la demande pour les importations de biens intermédiaires aux États-Unis. Pour établir le lien cause à effet entre le commerce et la migration, j’exploite l'important afflux d'immigrants d'Amérique centrale après l'ouragan Mitch. Les résultats montrent que l'augmentation de dix pour cent d'immigrants a fait croître la demande pour les importations de biens intermédiaires de 1,5 pour cent. Mes résultats sont robustes aux problèmes de la causalité inverse ou la décision d’émigrer est causée par des opportunités de faire du commerce.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alors que la question de la responsabilité juridique des entreprises multinationales (EMNs) est sujette à de nombreuses controverses sur la sphère internationale, les victimes collatérales et directes des activités des EMNs sont engagées dans une tout autre bataille. En effet, de quels recours disposent les victimes de pollution environnementale causée par les activités d’une entreprise minière, ou les employés victimes de violations des droits fondamentaux du travail au sein d’une chaîne de production par les sous-traitants d’une très respectable EMN? Telles sont les interrogations animant la présente étude qui se focalise essentiellement sur la mise en oeuvre du droit à la réparation consacrée par le troisième pilier des Principes directeurs adoptés par l’ONU en 2011. Retraçant les fondements du droit à la réparation en droit international, elle met en évidence l’impossibilité de poursuivre les EMNs devant les instances internationales du fait de l’irresponsabilité juridique internationale découlant du statut actuel des EMNS. En l’absence de législation extraterritoriale et d’harmonisation juridique au niveau régional, l’analyse aborde ainsi en profondeur les opportunités et les limites de la mise en oeuvre du droit à réparation devant les instances judiciaires nationales les plus courues du moment par les victimes qui cherchent à obtenir des réparations pour les violations des droits humains par les EMNs. Si les obstacles rencontrés par les victimes devant le prétoire américain n’ont eu de cesse de se multiplier ces dernières années, l’émergence d’un principe de diligence raisonnable sous-tendant l’idée d’une responsabilité civile des EMNS devant le juge européen et canadien peut offrir une base adéquate pour asseoir l’encadrement d’un droit à réparation par les acteurs transnationaux à l’échelle locale. Les Principes directeurs privilégiant également l’implication des EMNs dans la mise en oeuvre du droit à réparation, la recherche se clôt avec l’étude du cas pratique de la réponse apportée par les EMNs aux victimes bangladaises de la tragédie du Rana Plaza survenue en 2013 à Dacca. L’analyse permet ainsi de conclure que de ce combat aux allures de David contre Goliath opposant les EMNs à leurs victimes, il est impératif que les mécanismes judiciaires nationaux soient renforcés et que l’encadrement juridique de la responsabilité internationale des EMNs sorte enfin des sentiers battus afin de remédier à l’asymétrie causée par la poursuite des intérêts économiques sur la protection effective des droits humains.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce rapport de mémoire, nous avons utilisé les méthodes numériques telles que la dynamique moléculaire (code de Lammps) et ART-cinétique. Ce dernier est un algorithme de Monte Carlo cinétique hors réseau avec construction du catalogue d'événements à la volée qui incorpore exactement tous les effets élastiques. Dans la première partie, nous avons comparé et évalué des divers algorithmes de la recherche du minimum global sur une surface d'énergie potentielle des matériaux complexes. Ces divers algorithmes choisis sont essentiellement ceux qui utilisent le principe Bell-Evans-Polanyi pour explorer la surface d'énergie potentielle. Cette étude nous a permis de comprendre d'une part, les étapes nécessaires pour un matériau complexe d'échapper d'un minimum local vers un autre et d'autre part de contrôler les recherches pour vite trouver le minimum global. En plus, ces travaux nous ont amené à comprendre la force de ces méthodes sur la cinétique de l'évolution structurale de ces matériaux complexes. Dans la deuxième partie, nous avons mis en place un outil de simulation (le potentiel ReaxFF couplé avec ART-cinétique) capable d'étudier les étapes et les processus d'oxydation du silicium pendant des temps long comparable expérimentalement. Pour valider le système mis en place, nous avons effectué des tests sur les premières étapes d'oxydation du silicium. Les résultats obtenus sont en accord avec la littérature. Cet outil va être utilisé pour comprendre les vrais processus de l'oxydation et les transitions possibles des atomes d'oxygène à la surface du silicium associée avec les énergies de barrière, des questions qui sont des défis pour l'industrie micro-électronique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente étude visait à développer un protocole de fixation et d'échantillonnage pour le poumon équin suivant les directives publiées sur l’utilisation d’une approche stéréologique de type « design-based ». Les poumons gauches de chevaux contrôles et atteints du souffle ont été fixés avec du formaldéhyde 10% pendant 48h à une pression constante de 25-30 cm d’H2O. Les poumons ont été sectionnés en 20-21 tranches d’une épaisseur d'environ 2,5 cm chacune; de 10-11 tranches ont été sélectionnées de façon aléatoire et systématique pour la mesure du volume de référence avec la méthode de Cavalieri. Un protocole d’échantillonnage systématique, aléatoire et uniforme utilisant le principe du « smooth fractionator » et un poinçon à biopsie de 17 mm ont été utilisés pour échantillonner une fraction représentative de chaque poumon. Les méthodes d’échantillonnage de sections verticales, uniformes et aléatoires (VUR) et d’échantillonnage isotropique, uniforme et aléatoire (IUR) ont toutes deux été effectuées pour comparer le nombre de voies respiratoires en coupe perpendiculaire obtenues à partir de chaque méthode. L'architecture globale et la qualité des tissus fixés ont également été évaluées. Des spécimens pulmonaires équins ont été échantillonnés avec succès selon un protocole visant à produire des données morphométriques valides. Les tissus ont été fixés avec un minimum d'artéfacts et contenaient une quantité suffisante de voies respiratoires en coupe perpendiculaire dans les deux types d’échantillons. En conclusion, un protocole de fixation et d'échantillonnage adapté au poumon équin permettant l'utilisation d'une approche stéréologique de type « design-based » a été élaboré pour l’étude du remodelage des voies respiratoires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La musique aujourd’hui est régulièrement accompagnée d’environnements visuels. Depuis les propositions en provenance du vidéoclip jusqu’aux œuvres installatives en passant par l’art web ou le cinéma, l’audiovisuel occupe une place considérable dans notre monde médiatisé et constitue un foyer important du développement des pratiques musicales. L’alliage entre son et image est souvent rattachée à l’histoire du cinéma mais les prémisses entourant l’audiovisuel remontent en réalité à l’Antiquité. Les correspondances entre sons et couleurs ont pris racine en premier chez les Pythagoriciens et cet intérêt se poursuit encore aujourd’hui. L’avènement de différentes technologies est venu reformuler au fil des siècles cette recherche qui retourne du décloisonnement artistique. L’arrivée de l’électricité permet au XIXe siècle le développement d’une lutherie expérimentale avec entre autres l’orgue à couleur d’Alexander Rimington. Ces instruments audiovisuels donnent naissance plus tard au Lumia, un art de la couleur et du mouvement se voulant proche de la musique et qui ne donne pourtant rien à entendre. Parallèlement à ces nouvelles propositions artistiques, il se développe dès les tout début du XXe siècle au sein des avant-gardes cinématographiques un corpus d’œuvres qui sera ensuite appelé musique visuelle. Les possibilités offertes par le support filmique vient offrir de nouvelles possibilités quant à l’organisation de la couleur et du mouvement. La pratique de cet art hybride est ensuite reformulée par les artistes associés à l’art vidéo avant de connaitre une vaste phase de démocratisation avec l’avènement des ordinateurs domestiques depuis les années 1990. Je retrace le parcours historique de ces pratiques audiovisuelles qui s’inscrivent résolument sur le terrain du musical. Un parcours appuyé essentiellement sur des œuvres et des ouvrages théoriques tout en étant parsemé de réflexions personnelles. Je traite des enjeux théoriques associés à ces propositions artistiques en les différenciant d’un autre format audiovisuel majeur soit le cinéma. Cet exposé permet de préparer le terrain afin de présenter et contextualiser mon travail de création. Je traite de deux œuvres, Trombe (2011) et Lungta (2012), des propositions qui héritent à la fois des musiques visuelles, de l’art interactif et de l’art cinétique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les technologies de stimulations transcrâniennes – tel que la tDCS ou la TMS – présentent à l’heure actuelle d’intéressantes perspectives thérapeutiques, tout comme diverses améliorations cognitives chez le sujet « non-malade » dont découlent des applications neuroamélioratives, plus ou moins imminentes, en dehors du cadre clinique ou investigatoire. Est proposé ici d’analyser les risques associés à ces applications, détournées des objectifs premiers de recherche, et aux préoccupations éthiques qui les accompagnent (autonomie, justice, intégrité physique), via un concept généralement associé aux recherches avec des perspectives de sécurité nationale et associées à un niveau de risque élevé. Révisant la trivialité d’une définition dichotomique aux usages « bons » et « mauvais », est proposé d’étendre le concept de « double-usage » pour l’appliquer à la neuroamélioration comme un mésusage de la recherche en neurosciences. Faisant référence au conflit entre, d’une part, le respect de la liberté académique et, d’autre part, la protection de la sécurité et de la santé publique, ce concept s’avère être un outil diagnostique pertinent pour l’évaluation des risques associés à l’usage mélioratif desdites technologies, et plus particulièrement de la tDCS, afin d’alimenter la réflexion sur la régulation de ces dispositifs en amont de leur utilisation, selon un principe de précaution inhérent au double-usage de la recherche. Ce concept permet ainsi de réfléchir à la mise en place d’une gouvernance proactive et contextualisée impliquant une responsabilité partagée d’un large panel d’acteurs, nécessaire au vu des avancées rapides du domaine des neurosciences et de l’imminence de l’arrivée sur le marché de ces dispositifs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème grandissant de l’antibiorésistance remet en question plusieurs pratiques reliées à l’utilisation des antibiotiques, dont l’usage à grande échelle pour des fins de promotion de la croissance chez les animaux de consommation. Depuis 2006, le retrait des antibiotiques dans les élevages de poulets de chair en Europe a été associé à la résurgence d’entérite nécrotique, une maladie intestinale causée par la bactérie Clostridium perfringens. Alors que la pathogénie de la maladie semblait bien comprise, le retrait des antibiotiques a montré que peu de solutions de remplacement sont disponibles afin de prévenir cette maladie. Très peu d’études se sont intéressées à mieux caractériser la dynamique des populations de C. perfringens dans les élevages avicoles et l’effet que pouvait avoir le retrait des antibiotiques sur l’évolution de ces populations. La présente étude a évalué l’impact du remplacement des antibiotiques promoteurs de croissance et des anticoccidiens pendant une période de 14 mois, dans huit élevages commerciaux de poulets de chair au Québec. Un protocole d’élevage alternatif, combinant des stratégies telles que des produits à base d’huiles essentielles, des acides organiques et inorganique, une vaccination contre la coccidiose ainsi qu’une amélioration des conditions de démarrage des poussins, a été utilisé en remplacement des antimicrobiens. Les performances zootechniques, la santé digestive ainsi que l’occurrence d’entérite nécrotique pour les lots de poulets soumis au protocole d’élevage alternatif ont été comparées avec celles de lots de poulets de chair recevant une ration conventionnelle. Des analyses moléculaires basées sur la PCR et le PFGE ont été utilisées afin de documenter l’impact de la mise en place du protocole d’élevage alternatif sur les populations de C. perfringens. Les résultats obtenus montrent qu’aucune différence entre les groupes soumis aux deux types de protocoles n'est observée en ce qui a trait à la viabilité en élevage, à l'âge d'abattage et aux taux de condamnations à l'abattoir. Toutefois, les lots soumis au traitement alternatif ont eu des performances moindres pour le poids moyen à l'abattage, le gain moyen quotidien et la conversion alimentaire. Un peu plus de 27% des lots soumis au protocole alternatif ont connu un épisode d’entérite nécrotique clinique. Les analyses ont aussi montré que l’un ou l’autre des protocoles ne semble pas exercer d’influence particulière sur la dynamique temporelle des populations de C. perfringens. Pour les lots soumis au protocole d’élevage alternatif, une forte diversité génétique pour C. perfringens a été liée à un risque augmenté de vivre un épisode d’entérite nécrotique. À l’opposé, les lots alternatifs ayant vécu des épisodes récurrents de la maladie ont montré une diminution significative de la diversité génétique, ainsi qu’une augmentation marquée du nombre de souches de C. perfringens transportant plusieurs gènes de virulence. La présente étude a permis de mieux documenter, d’un point de vue économique et scientifique, la production de poulets de chair élevés sans antibiotiques ni anticoccidiens au Québec. Cette étude est la seule du genre s’étant intéressée à la caractérisation et à la comparaison dans le temps des flores de C. perfringens retrouvées dans les deux types d’élevages. Elle a révélé que la production à grande échelle de poulets de chair élevés sans antibiotiques ni anticoccidiens est possible au Québec, mais que celle-ci présente des impacts sur les performances zootechniques des oiseaux, sur leur santé digestive et sur la dynamique des populations de C. perfringens. Mots-clés : poulets de chair, antibiotiques, huiles essentielles, acides organiques, vaccination coccidiose, performances zootechniques, santé digestive, entérite nécrotique, Clostridium perfringens, dynamique populationnelle

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse-filmique s'articule autour de deux questions principales : comment aborder l’articulation des différences (qu’elles soient d’ordre genré, sexuel, culturel, racial, physique ou subjectif) telles qu'elles se retrouvent spécifiquement dans certains films québécois ; et, dans quelle mesure l’étude critique des différences permettent-elles de concevoir le cinéma comme un régime de la représentation (Hall 1997a) québécois articulé autour de certaines normativités (Butler, 2004)? On retrouve dans la littérature sur le cinéma québécois des préoccupations sur les questions associées à l’identité nationale liées avec des pratiques de différenciations identitaires et sociales (Poirier, 2004a, 2004b; Boulais, 2006; Barrette, 2009; Juteau et Fontaine, 1996) renvoyant à une opposition entre « nous/soi » et « l’Autre ». Afin de répondre à une urgence politique de considérer autrement ces questions, j’ai adopté une posture intersectionnelle (Bilge, 2009). L’intersectionnalité me permet d’aborder les différences de façon inductive afin d’ouvrir une discussion intégrée sur les rapports de pouvoir et l’articulation des oppressions. À ce sujet, je considère qu’une lutte de pouvoir autour de la représentation (Hall, 1997a; du Gay et al., 1997) s’inscrit dans une lutte plus large concernant des rapports de force dans la société québécoise. Inspirée par les théories queer et féministes, les études cinématographiques et les Cultural Studies, j’ai développé une méthodologie autoethnographique au sein d’une méthodologie de recherche-création (Sawchuk et Chapman, 2012). L’intermédialité de mon projet permet de nouvelles possibilités (Mariniello, 2000) notamment en créant un espace de réflexion favorisant l’échange entre diverses voix et expériences, mais également en brouillant les frontières méthodologiques et médiatiques de ma démarche, permettant d’approfondir de façon intuitive et exploratoire le concept de la rencontre. En effet, la rencontre et l’expérience de la rencontre ont joué un rôle à la fois conceptuel et personnel dans ce projet. Elle me permet d’éviter de fixer la différence, et plutôt de l’aborder dans son processus de reconnaissance et d’émergence d’une identité.