828 resultados para Generally Acceptable Accounting Principles (GAAP)
Resumo:
La thérapie germinale est une avenue médicale qui est loin de pouvoir être appliquée de manière sécuritaire et responsable car les connaissances médicales actuelles sont insuffisantes. De surcroît, l'encadrement normatif qui l'entoure est unanime et clame la non-acceptabilité de son application humaine. Certains instruments adoptent une approche rigide en la prohibant formellement, d'autres adoptent une approche flexible en demeurant ouverts à une éventuelle application. Il y a donc divergence quant à la légitimité de cette technique. La médecine moderne doit reposer sur des principes directeurs issus de diverses sources, empruntées au droit et à l'éthique. Les principes retenus pour examiner la légitimité de la thérapie germinale sont tirés, d'une part, des droits et libertés fondamentales: ce sont les principes fondamentaux de dignité, de liberté, d'égalité. D'autre part, ils sont issus des règles d'éthique de la recherche: plus particulièrement le principe de bienfaisance (nonmalfaisance) et celui du respect de la personne. La perspective d'une éventuelle application humaine de la thérapie germinale ne porte pas nécessairement atteinte aux principes fondamentaux, dépendamment du genre d'application qui est envisagé. Une application restreinte, appliquée dans des circonstances particulières et en vue de soulager ou d'éliminer certaines formes de détresses et de souffrances, pourrait être conforme aux principes qui soutiennent les droits et libertés fondamentales. La thérapie germinale soulève des questions éthiques difficiles et parfois inédites, notamment l'extension des risques aux générations futures et l'obligation d'un suivi à long terme pour des descendants qui n'auront pas eux-mêmes donné leur consentement à cette «thérapie». La thérapie germinale est présentement non acceptable mais ne devrait pas faire l'objet d'une prohibition totale.
Resumo:
Les propriétés pharmacocinétiques d’un nouveau médicament et les risques d’interactions médicamenteuses doivent être investigués très tôt dans le processus de recherche et développement. L’objectif principal de cette thèse était de concevoir des approches prédictives de modélisation du devenir du médicament dans l’organisme en présence et en absence de modulation d’activité métabolique et de transport. Le premier volet de recherche consistait à intégrer dans un modèle pharmacocinétique à base physiologique (PBPK), le transport d’efflux membranaire gouverné par les glycoprotéines-P (P-gp) dans le cœur et le cerveau. Cette approche, basée sur des extrapolations in vitro-in vivo, a permis de prédire la distribution tissulaire de la dompéridone chez des souris normales et des souris déficientes pour les gènes codant pour la P-gp. Le modèle a confirmé le rôle protecteur des P-gp au niveau cérébral, et a suggéré un rôle négligeable des P-gp dans la distribution tissulaire cardiaque pour la dompéridone. Le deuxième volet de cette recherche était de procéder à l’analyse de sensibilité globale (ASG) du modèle PBPK précédemment développé, afin d’identifier les paramètres importants impliqués dans la variabilité des prédictions, tout en tenant compte des corrélations entre les paramètres physiologiques. Les paramètres importants ont été identifiés et étaient principalement les paramètres limitants des mécanismes de transport à travers la membrane capillaire. Le dernier volet du projet doctoral consistait à développer un modèle PBPK apte à prédire les profils plasmatiques et paramètres pharmacocinétiques de substrats de CYP3A administrés par voie orale à des volontaires sains, et de quantifier l’impact d’interactions médicamenteuses métaboliques (IMM) sur la pharmacocinétique de ces substrats. Les prédictions des profils plasmatiques et des paramètres pharmacocinétiques des substrats des CYP3A ont été très comparables à ceux mesurés lors d’études cliniques. Quelques écarts ont été observés entre les prédictions et les profils plasmatiques cliniques mesurés lors d’IMM. Cependant, l’impact de ces inhibitions sur les paramètres pharmacocinétiques des substrats étudiés et l’effet inhibiteur des furanocoumarins contenus dans le jus de pamplemousse ont été prédits dans un intervalle d’erreur très acceptable. Ces travaux ont contribué à démontrer la capacité des modèles PBPK à prédire les impacts pharmacocinétiques des interactions médicamenteuses avec une précision acceptable et prometteuse.
Resumo:
Philippe van Parijs (2003) has argued that an egalitarian ethos cannot be part of a post- Political Liberalism Rawlsian view of justice, because the demands of political justice are confined to principles for institutions of the basic structure alone. This paper argues, by contrast, that certain principles for individual conduct—including a principle requiring relatively advantaged individuals to sometimes make their economic choices with the aim of maximising the prospects of the least advantaged—are an integral part of a Rawlsian political conception of justice. It concludes that incentive payments will have a clearly limited role in a Rawlsian theory of justice.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
La grande majorité des causes tranchées par la Cour fédérale relève du droit de l’immigration. Environ 80% des causes plaidées devant la Cour fédérale sont en matière d’immigration. La plupart des causes qui se rendent à la Cour fédérale aboutissent au renvoi de la personne concernée. La requête en sursis est généralement le dernier recours que la personne peut exercer afin d’éviter ou à tout le moins retarder son renvoi du Canada. Près de 800 de ces requêtes en sursis ont été décidées par la Cour fédérale en 2008. Malgré un si grand nombre de causes et malgré le rôle important que ces requêtes peuvent jouer dans la vie d’une personne, aucun auteur n’a organisé et présenté les règles législatives et jurisprudentielles qui s’appliquent à ces procédures. Aucun livre, article ou commentaire n’a été rédigé sur ce sujet. De même, il n’existe aucun cours d’université ni de formations professionnelles sur les requêtes en sursis. Le droit des sursis consiste exclusivement de la jurisprudence des cours fédérales. Ainsi, on s’attend à ce qu’un avocat prépare une requête en sursis intuitivement. Toutefois, à cause de la nature urgente de cette procédure, il est pratiquement impossible pour un avocat inexpérimenté de se préparer adéquatement et de bien représenter les intérêts de son client. Beaucoup de causes ayant un fort potentiel sont perdues par manque d’expérience de l’avocat ou à cause d’une préparation inadéquate. La jurisprudence émanant de la Cour fédérale relativement aux sursis semble être incohérente et parfois même contradictoire. Ce livre organise, présente et explique de façon claire et concise le droit des sursis. Plus particulièrement, nous examinerons en détail les trois types de sursis – les sursis législatifs, administratifs et judiciaires. Tant les juges que les plaideurs trouveront cet ouvrage de référence utile dans la préparation et l’adjudication des causes.
Resumo:
This article represents a prime example of applied ethics in public health policy development. The article provides guidance on the development of food allergy policies for child care settings based on core ethical principles in bioethics and public health ethics.
Resumo:
Jouant un rôle crucial pour l’efficience des marchés, la banque d’investissement contemporaine se caractérise par l’exercice d’une grande diversité d’activités aussi complexes qu’hétérogènes sous un même toit. Agissant tantôt auprès d’une clientèle de particuliers, d’entreprises, d’institutions financières, de fonds d’investissement ou de gouvernements, et tantôt pour son propre compte, elle compose avec une multitude d’intérêts divergents, ce qui soulève un certain questionnement quant à la portée de l’obligation de loyauté dont elle peut être tributaire envers ses clients. Les implications répétées des banques d’affaires dans la vague de récents scandales financiers ont inévitablement affecté la confiance que les épargnants témoignent envers l’intégrité de cette institution et des marchés financiers en général. Elles ont de plus contribué significativement à relancer le débat concernant la pertinence de contrôler, et même d’éliminer les conflits d’intérêts, un phénomène largement répandu au sein de la banque d’investissement. À titre de mécanismes préventifs, les solutions de marchés et l’autodiscipline des intermédiaires financiers sont imparfaits. La réglementation des conflits d’intérêts se justifie alors afin de pallier les défaillances du marché et de l’autorégulation. Pour autant qu’il maintienne sa réglementation dans un rapport efficience-équité acceptable, l’État est appelé à concevoir des normes de contrôle aux objectifs variés, allant de la réforme structurelle du secteur financier à l’élaboration de principes généraux devant servir de balises à la conduite des intermédiaires financiers. Ainsi, dans une industrie caractérisée par une forte conglomération, la réponse des législateurs semble s’articuler autour du traitement adéquat des conflits d’intérêts, traitement qui s’opère par divers mécanismes, dont la muraille Chine, la divulgation et le refus d’agir.
Resumo:
A current advance within the agricultural industry is the use of genetic engineering to produce novel crops for food production. This technology raises questions about how societies should position themselves with respect to genetically modified (GM) crop development and implementation; namely, how should the potentials and risks of this technology be evaluated? We argue that current methods to evaluate the risks and benefits of GM crops are inadequate and not conducive to the strategic development of this technology, where a way to ameliorate technology assessments for GM crops is to include farmers in the research process of evaluating these crops prior to their commercialization. However, particularities concerning the ethical status of such research require special consideration and vigilance. For example, in such technology assessment initiatives, farmers would occupy both the roles of research participant and research investigator. Other particularities surface due to factors related to the nature of GM crops. These particularities are examined with reference to concepts drawn from the field of research ethics, namely informed consent, compensatory decisions, and issues of participant inclusion/exclusion.
Resumo:
This article is an excellent example of applied ethics in public health policy development.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
The growing epidemic of allergy and allergy-induced asthma poses a significant challenge to population health. This article, written for a target audience of policy-makers in public health, aims to contribute to the development of policies to counter allergy morbidities by demonstrating how principles of social justice can guide public health initiatives in reducing allergy and asthma triggers. Following a discussion of why theories of social justice have utility in analyzing allergy, a step-wise policy assessment protocol formulated on Rawlsian principles of social justice is presented. This protocol can serve as a tool to aid in prioritizing public health initiatives and identifying ethically problematic policies that necessitate reform. Criteria for policy assessment include: 1) whether a tentative public health intervention would provide equal health benefit to a range of allergy and asthma sufferers, 2) whether targeting initiatives towards particu- lar societal groups is merited based on the notion of ‘worst-off status’ of certain population segments, and 3) whether targeted policies have the potential for stigmatization. The article concludes by analyzing three examples of policies used in reducing allergy and asthma triggers in order to convey the general thought process underlying the use of the assessment protocol, which public health officials could replicate as a guide in actual, region-specific policy development.
Resumo:
L’Organisation mondiale de la Santé recommande aux individus de limiter leur consommation d’aliments sucrés dans le but de prévenir le développement des maladies chroniques. En santé publique, peu de recherches ont tenté d’identifier les facteurs individuels et contextuels qui peuvent influencer conjointement la consommation de ces aliments. Or, de telles connaissances seraient utiles pour guider les interventions nutritionnelles visant à en réduire la consommation. L’objectif de cette thèse est d'étudier les facteurs reliés au comportement et les contextes associés à la consommation quotidienne d’aliments sucrés chez des adultes vivant dans un milieu urbain occidental. Cette étude a été menée auprès d'une communauté moyen-orientale établie dans la Ville de Montréal. Les aliments sucrés ont été définis comme étant les glucides raffinés dont la teneur en sucres totaux dépasse 20 % de l’énergie totale. Lors de l’étape exploratoire (N = 42), un rappel de 24 heures a permis d’identifier les sources d’aliments sucrés et de déterminer l’apport quotidien en sucres totaux de cette communauté. Une étude qualitative descriptive a été privilégiée et un cadre écologique a guidé la réalisation d’entrevues semi-dirigées sur les contextes de consommation (N = 42). Une analyse de contenu employant des procédures de codage initial et focus a mené à l’élaboration d’un instrument de mesure quantitatif sur les contextes de consommation. Cet instrument a été soumis à un pré-test (N = 20), puis administré à l’échantillon principal (N = 192). Une analyse factorielle exploratoire a permis de préciser les contextes de consommation. Les facteurs individuels mesurés incluent les données sociodémographiques, les symptômes dépressifs, la maîtrise de soi, l’assoupissement de jour, les perceptions ainsi que l’hémoglobine glycosylée. La consommation quotidienne de sucres totaux a été mesurée par un questionnaire de fréquence alimentaire (N = 192). Une analyse de régression multivariée employant le modèle linéaire généralisé (distribution de type gamma et lien logarithmique) a été effectuée pour mesurer les relations entre les contextes de consommation, les facteurs individuels et la consommation de sucres totaux, en contrôlant l’âge et le sexe. L’apport quotidien en sucres totaux de l'échantillon est de 20,3 %, ce qui s’apparente aux apports des Canadiens et des Québécois. La consommation quotidienne moyenne est de 76 g/j. Les analyses qualitative et factorielle ont permis d’identifier un ensemble de 42 contextes de consommation regroupés en sept domaines (Actes et situations de grignotage, Stimuli visuels, Besoins énergétiques, Besoins émotionnels, Indulgence, Contraintes, Socialisation). La consommation quotidienne de sucres totaux est supérieure chez les hommes (B = 0,204, ES = 0,094, p = 0,03). Les facteurs positivement associés à la consommation sont le grignotage (B = 0,225, ES = 0,091, p = 0,01), la prise de dessert (B = 0,105, ES = 0,036, p = 0,001) ainsi que les symptômes dépressifs (B = 0,017, ES = 0,094, p = 0,03). L’âge (B = -0,01, ES = 0,004, p = 0,02), l’indulgence (B = -0,103, ES = 0,052, p = 0,05) et l’auto-modération (B = -0,121, ES = 0,042, p = 0,001) montrent, pour leur part, une association négative. Cette étude a privilégié une méthodologie mixte et a permis de développer une mesure innovatrice pour étudier les facteurs contextuels associés à la consommation d’aliments sucrés. Ceux-ci ont été analysés conjointement avec les facteurs individuels. Afin d'encourager les individus à réduire leur consommation de sucres totaux lorsque nécessaire, les initiatives en santé publique devraient en effet cibler les contextes de consommation de même que les facteurs individuels.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.
Resumo:
Dans cette thèse, nous partons des grands principes de justice pour démontrer la nécessité d’octroyer aux êtres sensibles nonhumains les droits moraux et légaux les plus fondamentaux. Dans un premier temps, nous nous penchons sur les principes sous-jacents aux droits fondamentaux de la personne : le principe d’égalité voulant que les cas similaires soient traités de manière similaire; la notion de droit fondamental, qui repose sur celle d’intérêt; le principe de l’égale considération des intérêts auquel mène le principe d’égalité; et, enfin, le concept d’intérêt, qui s’applique à tous les êtres sensibles. Cette première partie établit l’exigence d’accorder les droits les plus fondamentaux à tous les êtres possédant les intérêts que ces droits visent à protéger. Cela permet d’étudier trois droits particuliers et les intérêts qui les sous-tendent en examinant d’abord le droit à l'intégrité physique. Nous montrons que de nombreux animaux nonhumains sont des êtres sensibles, que tous les êtres sensibles ont, par définition, intérêt à ne pas souffrir et que, pour cette raison, ils devraient jouir du droit à l’intégrité physique. Le troisième chapitre est consacré au droit à la vie. Nous soutenons qu’il est raisonnable de supposer que tous les êtres sensibles, parce qu’ils peuvent jouir des bonnes choses de la vie, ont un certain intérêt à persévérer dans leur existence, intérêt qui, peu importe son intensité ou sa nature, doit être protégé par l’égal droit de vivre. Notre dernier chapitre se concentre sur le droit à la liberté. Nous montrons que cet intérêt est généralement interprété négativement et ne consiste qu’à pouvoir agir sans subir d’interférence. Nous soutenons que cette acception du concept de liberté nous force à reconnaître l’intérêt à être libre de tous les êtres sensibles et notre devoir de leur accorder un droit à la liberté. Nous ajoutons finalement que l’interprétation républicaine de la liberté nous incite à reconnaître à tous ces animaux un statut égal à celui des humains. Nous terminons cette réflexion en concluant que l'octroi des droits fondamentaux aux animaux sensibles implique que l’exploitation animale institutionalisée soit abandonnée et que les animaux conscients jouissent du statut de personne.