984 resultados para crédibilité de la preuve


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse porte sur l’introduction des politiques de transfert de revenu au Brésil. L’objectif central de la recherche est de comprendre comment ces politiques se sont imposées dans le cadre des réformes de la protection sociale brésilienne pendant les années 1990, notamment à partir de 1995 et comment elles ont engendré un changement paradigmatique de troisième ordre de la politique nationale d’assistance sociale. Nous posons deux hypothèses de recherche : la première est que l’introduction de telles politiques au Brésil fut le résultat du rôle historique des intellectuels engagés dans la défense du revenu minimum en tant qu’alternative au modèle de protection sociale brésilien. Cette défense du revenu minimum fut soutenue par des intellectuels, des communautés épistémiques et par des politiciens qui ont inscrit le débat sur le revenu minimum à l’agenda politique brésilien. La deuxième hypothèse suggère que la convergence d’idées, d’institutions et d’intérêts a favorisé l’adoption de ces politiques. Cette convergence d’idées, d’institutions et d’intérêts repose sur le rôle de plusieurs acteurs tels les intellectuels, le président Cardoso et d’autres politiciens qui se sont mis à la défense du social au Brésil depuis 1999, des institutions parlementaires brésiliennes et des organisations internationales, notamment le FMI, la Banque mondiale et la Banque interaméricaine de développement – BID. Nous proposons l’approche des trois i pour rendre compte de ce changement. L’apprentissage social, les processus de diffusion et de lesson-drawing sont les facteurs à l’origine de la formation de la convergence autour des programmes de transfert de revenu. Nous montrerons que l’expérience brésilienne de programmes de transfert de revenu a non seulement engendré un processus d’apprentissage social renversé auprès de la Banque Mondiale mais qu'elle a aussi eu un effet aussi sur les actions de la BID. Nous suggérons que le changement paradigmatique de la protection sociale brésilienne a été amorcé par le gouvernement Cardoso dans un processus d’essais et d’erreurs. Ce processus, qui est à l’origine des réaménagements du programme « Comunidade Solidária », a permis la création du « Projeto Alvorada » et du « Réseau de protection sociale » en 2001. Les programmes de transfert de revenu reliés à l’éducation et aux soins de santé ont été les plus influents dans la construction du consensus qui s’est établi autour des programmes de transfert de revenu comme alternative à l’ancien modèle de protection sociale puisqu’ils procurent le renforcement du capital social en même temps qu’ils fonctionnent comme facteur structurant de la protection sociale. Ce legs du gouvernement Cardoso a permis au gouvernement de Luis Inácio Lula da Silva de consolider le nouveau paradigme avec la création du programme national Bolsa-Família. Le gouvernement Lula a donc bénéficié de l’héritage historique des deux mandats de Cardoso et, ironiquement, a récolté les fruits de l’apprentissage social. Le phénomène du « lulismo » en est la preuve. Par ailleurs, cette thèse met en question la paternité du programme Bolsa-Família puisqu’elle montre la création de ce programme d'abord comme la consolidation du processus d’apprentissage et puis comme conséquence de la création d’un nouveau paradigme pour la politique d’assistance sociale au Brésil qui a eu lieu pendant les deux mandats de Cardoso.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Comparativement au génome contenu dans le noyau de la cellule de plante, nos connaissances des génomes des deux organelles de cette cellule, soit le plastide et la mitochondrie, sont encore très limitées. En effet, un nombre très restreint de facteurs impliqués dans la réplication et la réparation de l’ADN de ces compartiments ont été identifiés à ce jour. Au cours de notre étude, nous avons démontré l’implication de la famille de protéines Whirly dans le maintien de la stabilité des génomes des organelles. Des plantes mutantes pour des gènes Whirly chez Arabidopsis thaliana et Zea mays montrent en effet une augmentation du nombre de molécules d’ADN réarrangées dans les plastides. Ces nouvelles molécules sont le résultat d’une forme de recombinaison illégitime nommée microhomology-mediated break-induced replication qui, en temps normal, se produit rarement dans le plastide. Chez un mutant d’Arabidopsis ne possédant plus de protéines Whirly dans les plastides, ces molécules d’ADN peuvent même être amplifiées jusqu’à cinquante fois par rapport au niveau de l’ADN sauvage et causer un phénotype de variégation. L’étude des mutants des gènes Whirly a mené à la mise au point d’un test de sensibilité à un antibiotique, la ciprofloxacine, qui cause des bris double brin spécifiquement au niveau de l’ADN des organelles. Le mutant d’Arabidopsis ne contenant plus de protéines Whirly dans les plastides est plus sensible à ce stress que la plante sauvage. L’agent chimique induit en effet une augmentation du nombre de réarrangements dans le génome du plastide. Bien qu’un autre mutant ne possédant plus de protéines Whirly dans les mitochondries ne soit pas plus sensible à la ciprofloxacine, on retrouve néanmoins plus de réarrangements dans son ADN mitochondrial que dans celui de la plante sauvage. Ces résultats suggèrent donc une implication pour les protéines Whirly dans la réparation des bris double brin de l’ADN des organelles de plantes. Notre étude de la stabilité des génomes des organelles a ensuite conduit à la famille des protéines homologues des polymérases de l’ADN de type I bactérienne. Plusieurs groupes ont en effet suggéré que ces enzymes étaient responsables de la synthèse de l’ADN dans les plastides et les mitochondries. Nous avons apporté la preuve génétique de ce lien grâce à des mutants des deux gènes PolI d’Arabidopsis, qui encodent des protéines hautement similaires. La mutation simultanée des deux gènes est létale et les simples mutants possèdent moins d’ADN dans les organelles des plantes en bas âge, confirmant leur implication dans la réplication de l’ADN. De plus, les mutants du gène PolIB, mais non ceux de PolIA, sont hypersensibles à la ciprofloxacine, suggérant une fonction dans la réparation des bris de l’ADN. En accord avec ce résultat, la mutation combinée du gène PolIB et des gènes des protéines Whirly du plastide produit des plantes avec un phénotype très sévère. En définitive, l’identification de deux nouveaux facteurs impliqués dans le métabolisme de l’ADN des organelles nous permet de proposer un modèle simple pour le maintien de ces deux génomes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La porte d’entrée méthodologique de cette recherche repose sur l’observation participante d’une patiente atteinte de «douleur chronique» adressée pour accompagnement thérapeutique par le Qi Gong. L’énoncé fréquent de situations de conflit avec la famille, avec l’employeur ou avec les médecins, m’a amenée à y considérer la similitude entre les symptômes énoncés, les usages du corps et les attitudes mentales en lien avec une représentation mécaniste et duelle du corps. Marcel Mauss a été le premier à désigner ce rapport entre les usages du corps et les paradigmes sociétaux et culturels, à l’œuvre. Dans une ère fortement marquée par la robotisation des entreprises et des services, la dématérialisation des documents et la tyrannie des nouvelles technologies, la «douleur chronique» vient donc questionner les usages du corps contemporain dans un monde du travail axé sur la performance et la productivité. Cette recherche a pour but d’interroger en quoi la «douleur chronique» serait un symptôme des apories contemporaines, dépassant ainsi largement le champ de ladecine et en quoi elle serait comme l’arme du faible, the weapon of the weak, en contexte d’oppression (Scott, 1985). Ultimement, elle questionne l’affirmation de Michel Foucault selon laquelle «nous avons tous du pouvoir dans le corps» (1987: 27). Le recueil de récits de vie auprès de professionnels de la danse, pressentis pour leur habileté à décrire leur ressenti, y déjoue une tendance à reléguer dans le domaine de la psyché ce qui ne fait pas la preuve de son évidence. La forte crédibilité de leur parole permet en outre de mieux documenter un phénomène complexe, entâché de beaucoup d’à priori et de révéler les dynamiques de pouvoir à l’œuvre au sein d’une profession confrontée aux limites corporelles, plus que tout autre, dans l’exercice de son art. Une approche généalogique de ces histoires de douleur et leur mise côte à côte permet d’identifier les «plis» que sont l’endurance et le rejet de toute médication face à la douleur et comment ils infléchissent son évolution. Une analyse plus approfondie des six d’entre elles qui s’en sont sorties y démontre que si le pouvoir s’exerce sur un corps perçu comme docile, il peut aussi s’inverser pour contribuer à la guérison, au prix d’une insurrection de savoirs enfouis, universels, mais «assujettis», et d’un changement de paradigme. Ainsi, une meilleure compréhension de la «douleur chronique» laisse entrevoir une possible réversibilité du phénomène et une réinsertion sociale, avec ou sans réorientation de carrière, à condition de repenser nos modes de représentation, de production, de relation au travail et aux usages du corps, le rapport à l’Autre et à soi.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nous sommes quotidiennement envahis pour d’innombrables messages électroniques non sollicités, qu’il s’agisse d’annonces publicitaires, de virus ou encore de ce qu’on appelle désormais les métavirus. Ces derniers sont des canulars transmis aux internautes leur suggérant de poser tel ou tel geste, lequel causera des dommages plus ou moins importants au système de l’utilisateur. L’auteur se penche sur la problématique que suscitent ces métavirus au niveau de la responsabilité civile de leurs émetteurs. Il en vient à la conclusion que ce régime, bien qu’applicable en théorie, demeure mal adapté au problème notamment au niveau de la preuve des éléments de la responsabilité civile. Il faut d’abord établir la capacité de discernement (ou l’incapacité) de l’émetteur, la connaissance ou non de cet état par le destinataire et la preuve d’un comportement fautif de la part de l’émetteur voire même des deux parties. Reste à savoir quelle aurait été l’attitude raisonnable dans la situation. À noter que la victime pourrait être trouvée partiellement responsable pour ses propres dommages. Reste alors à prouver le lien de causalité entre l’acte et le dommage ce qui, compte tenu de la situation factuelle, peut s’avérer une tâche ardue. L’auteur conclut que l’opportunité d’un tel recours est très discutable puisque les coûts sont disproportionnés aux dommages et car les chances pour qu’un juge retienne la responsabilité de celui qui a envoyé le métavirus sont assez faibles. La meilleure solution, ajoute-t-il, reste la prudence.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’allaitement maternel est reconnu comme la façon optimale de nourrir les nourrissons et les jeunes enfants. Néanmoins, le Québec présente des taux d’allaitement parmi les plus faibles au Canada. Dans un tel contexte, le gouvernement provincial plaça l’allaitement comme l’une de ses priorités de santé publique et il publia, en 2001, la politique L’allaitement maternel au Québec : Lignes directrices (LD). Cette étude a pour but de comprendre les processus d’émergence, d’élaboration et de mise en œuvre des LD. Il s’agit d’une étude de cas unique qualitative. Les données ont été recueillies par des entrevues et un groupe de discussion auprès de personnes engagées dans ce domaine et par la recension documentaire. Une analyse thématique déductive-inductive a été réalisée en utilisant la théorie institutionnelle. Les LD ont émergé à partir d’un mouvement professionnel qui a collaboré avec le ministère de la Santé et des Services sociaux pendant la phase d’élaboration et le début de la phase d’implantation de la politique. Au fil du temps, la prise de décisions a été centralisée, les mécanismes de concertation sont devenus désuets et les relations entre les acteurs concernés sont devenues moins coopératives. L’inconfort et le mécontentement avec cette nouvelle façon de gérer le dossier allaitement ont favorisé l’émergence d’un nouveau mouvement professionnel. L’étude conclut cependant que les acteurs concernés par l’allaitement au Québec visent l’atteinte du même but et que la collaboration est possible même dans un domaine très institutionnalisé comme celui de la santé, la preuve étant la formulation consensuelle des LD.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En lien avec l’augmentation constante de l’obésité, de plus en plus de personnes sont atteintes de résistance à l’insuline ou de diabète de type 2. Ce projet doctoral s’est surtout intéressé à l’une des conséquences majeures des pathologies cardiométaboliques, soit la dyslipidémie diabétique. À cet égard, les gens présentant une résistance à l’insuline ou un diabète de type 2 sont plus à risque de développer des perturbations lipidiques caractérisées essentiellement par des taux élevés de triglycérides et de LDL-cholestérol ainsi que de concentrations restreintes en HDL-cholestérol dans la circulation. Les risques de maladies cardiovasculaires sont ainsi plus élevés chez ces patients. Classiquement, trois organes sont connus pour développer l’insulino-résistance : le muscle, le tissu adipeux et le foie. Néanmoins, certaines évidences scientifiques commencent également à pointer du doigt l’intestin, un organe critique dans la régulation du métabolisme des lipides postprandiaux, et qui pourrait, conséquemment, avoir un impact important dans l’apparition de la dyslipidémie diabétique. De façon très intéressante, des peptides produits par l’intestin, notamment le GLP-1 (glucagon-like peptide-1), ont déjà démontré leur potentiel thérapeutique quant à l’amélioration du statut diabétique et leur rôle dans le métabolisme intestinal lipoprotéinique. Une autre évidence est apportée par la chirurgie bariatrique qui a un effet positif, durable et radical sur la perte pondérale, le contrôle métabolique et la réduction des comorbidités du diabète de type 2, suite à la dérivation bilio-intestinale. Les objectifs centraux du présent programme scientifique consistent donc à déterminer le rôle de l’intestin dans (i) l’homéostasie lipidique/lipoprotéinique en réponse à des concentrations élevées de glucose (à l’instar du diabète) et à des peptides gastro-intestinaux tels que le PYY (peptide YY); (ii) la coordination du métabolisme en disposant de l’AMPK (AMP-activated protein kinase) comme senseur incontournable permettant l’ajustement précis des besoins et disponibilités énergétiques cellulaires; et (iii) l’ajustement de sa capacité d’absorption des graisses alimentaires en fonction du gain ou de la perte de sa sensibilité à l’insuline démontrée dans les spécimens intestinaux humains prélevés durant la chirurgie bariatrique. Dans le but de confirmer le rôle de l’intestin dans la dyslipidémie diabétique, nous avons tout d’abord utilisé le modèle cellulaire intestinal Caco-2/15. Ces cellules ont permis de démontrer qu’en présence de hautes concentrations de glucose en basolatéral, telle qu’en condition diabétique, l’intestin absorbe davantage de cholestérol provenant de la lumière intestinale par l’intermédiaire du transporteur NPC1L1 (Niemann Pick C1-like 1). L’utilisation de l’ezetimibe, un inhibiteur du NPC1L1, a permis de contrecarrer cette augmentation de l’expression de NPC1L1 tout comme l’élévation de l’absorption du cholestérol, prouvant ainsi que le NPC1L1 est bel et bien responsable de cet effet. D’autre part, des travaux antérieurs avaient identifié certains indices quant à un rôle potentiel du peptide intestinal PYY au niveau du métabolisme des lipides intestinaux. Toutefois, aucune étude n’avait encore traité cet aspect systématiquement. Pour établir définitivement l’aptitude du PYY à moduler le transport et le métabolisme lipidique dans l’intestin, nous avons utilisé les cellules Caco-2/15. Notre étude a permis de constater que le PYY incubé du côté apical est capable de réduire significativement l’absorption du cholestérol et le transporteur NPC1L1. Puisque le rôle de l'AMPK dans l'intestin demeure inexploré, il est important non seulement de définir sa structure moléculaire, sa régulation et sa fonction dans le métabolisme des lipides, mais aussi d'examiner l'impact de l’insulino-résistance et du diabète de type 2 (DT2) sur son statut et son mode d’action gastro-intestinal. En employant les cellules Caco-2/15, nous avons été capables de montrer (i) la présence de toutes les sous-unités AMPK (α1/α2/β1/β2/γ1/γ2/γ3) avec une différence marquée dans leur abondance et une prédominance de l’AMPKα1 et la prévalence de l’hétérotrimère α1/β2/γ1; (ii) l’activation de l’AMPK par la metformine et l’AICAR, résultant ainsi en une phosphorylation accrue de l’enzyme acétylCoA carboxylase (ACC) et sans influence sur l'HMG-CoA réductase; (iii) la modulation négative de l’AMPK par le composé C et des concentrations de glucose élevées avec des répercussions sur la phosphorylation de l’ACC. D’autre part, l’administration de metformine au Psammomys obesus, un modèle animal de diabète et de syndrome métabolique, a conduit à (i) une régulation positive de l’AMPK intestinale (phosphorylation de l’AMPKα-Thr172); (ii) la réduction de l'activité ACC; (iii) l’augmentation de l’expression génique et protéique de CPT1, supportant une stimulation de la β-oxydation; (iv) une tendance à la hausse de la sensibilité à l'insuline représentée par l’induction de la phosphorylation d'Akt et l’inactivation de la phosphorylation de p38; et (v) l’abaissement de la formation des chylomicrons ce qui conduit à la diminution de la dyslipidémie diabétique. Ces données suggèrent que l'AMPK remplit des fonctions clés dans les processus métaboliques de l'intestin grêle. La preuve flagrante de l’implication de l’intestin dans les événements cardiométaboliques a été obtenue par l’examen des spécimens intestinaux obtenus de sujets obèses, suite à une chirurgie bariatrique. L’exploration intestinale nous a permis de constater chez ceux avec un indice HOMA élevé (marqueur d’insulinorésistance) (i) des défauts de signalisation de l'insuline comme en témoigne la phosphorylation réduite d'Akt et la phosphorylation élevée de p38 MAPK; (ii) la présence du stress oxydatif et de marqueurs de l'inflammation; (iii) la stimulation de la lipogenèse et de la production des lipoprotéines riches en triglycérides avec l’implication des protéines clés FABP, MTP et apo B-48. En conclusion, l'intestin grêle peut être classé comme un tissu insulino-sensible et répondant à plusieurs stimuli nutritionnels et hormonaux. Son dérèglement peut être déclenché par le stress oxydatif et l'inflammation, ce qui conduit à l'amplification de la lipogenèse et la synthèse des lipoprotéines, contribuant ainsi à la dyslipidémie athérogène chez les patients atteints du syndrome métabolique et de diabète de type 2.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les réclamations pour dommages punitifs en vertu de la Charte des droits et libertés de la personne se multiplient depuis plusieurs années devant les tribunaux. Pour être accueillie, cette réclamation implique la démonstration d’une atteinte illicite et intentionnelle à un droit ou une liberté protégé par cette charte. Les recours en responsabilité peuvent faire l’objet d’une couverture d’assurance. Or, le Code civil du Québec prévoit spécifiquement que l’assureur n’est pas tenu de couvrir la faute intentionnelle de l’assuré. Est-ce à dire que l’assureur n’a pas d’obligation envers son assuré lorsque des dommages punitifs sont réclamés? Il s’agit donc de déterminer si le concept de faute intentionnelle et celui d’atteinte illicite et intentionnelle sont des concepts qui s’équivalent ou qu’il est nécessaire de distinguer. Pour cette analyse, ces deux concepts seront abordés en profondeur. Il sera question de l’origine de ces deux notions, de leurs fondements et de leur interprétation pour finalement définir ces termes le plus précisément possible. Ces définitions permettront d’opposer ces deux notions et de déterminer au final qu’il existe plusieurs éléments qui différencient ces concepts, notamment à l’égard de l’intention requise, faisant en sorte qu’ils ne peuvent être assimilés. Cette conclusion aura un impact certain sur les obligations de l’assureur de défendre l’assuré et d’indemniser la victime pour ses dommages compensatoires lorsqu’il existe une réclamation en dommages punitifs et, par conséquent, l’assureur ne pourra faire reposer son refus de défendre ou d’indemniser sur la seule base de la preuve d’une atteinte illicite et intentionnelle.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Vuillemin a toujours lu Descartes comme un intuitionniste avant la lettre, si l’on entend par « intuitionniste » un mathématicien qui adopte la philosophie de Brouwer et la logique de Heyting. On se propose dans l’Introduction et la première section de cet article de montrer que cette lecture que Vuillemin fait de Descartes est parfaitement justifiée en expliquant pourquoi les Méditations peuvent être lues comme une application de la logique intuitionniste. La seconde et la troisième section sont respectivement consacrées à l’analyse logique de la preuve du Cogito (Méditation seconde) et de la première preuve de l’existence de Dieu (Méditation troisième). On montre que les deux preuves fondamentales des Méditations métaphysiques de Descartes sont toutes les deux valides en logique intuitionniste. Du point de vue logique, la première preuve de l’existence de Dieu que donne Descartes pourrait être considérée comme un progrès par rapport à la preuve d’Anselme qui est concluante en logique classique mais qui échoue en logique intuitionniste. Cependant on nuance ce jugement en conclusion en insistant sur le fait que le concept de Dieu sur lequel Descartes fonde sa preuve est indiscutablement un élément réaliste et non constructif.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les modèles d'optimalité postulent que les animaux en quête de ressources utilisent le taux de gain de valeur adaptative pour optimiser plusieurs comportements tels que la répartition du temps lors de l’exploitation d‘un agrégat et l'investissement en progénitures. Bien que la durée de plusieurs comportements doit être régulée, peu d’évidences de la perception du temps sont actuellement disponibles pour les insectes et aucune pour les guêpes parasitoïdes, et ce malgré leur importance en tant que modèles écologiques. De plus, puisque les guêpes parasitoïdes sont poïkilothermes, cette capacité pourrait être affectée par la température. Nous avons supposé que les guêpes parasitoïdes auraient la capacité de percevoir le temps, à la fois de façon prospective (mesure du temps écoulé) et rétrospective (durée d'un événement passé), afin d'optimiser les décisions liées à l'exploitation d’agrégats d’hôtes et à la reproduction. Nous avons également émis l'hypothèse que la température aurait une incidence sur la perception du temps des guêpes parasitoïdes. Pour la mesure prospective du temps, nous avons utilisé la capacité d’apprentissage associatif de Microplitis croceipes (Hymenoptera: Braconidae). Les guêpes ont été entraînées à associer une odeur à la durée d'un intervalle entre des hôtes. Après leur entraînement, elles ont été testées dans un tunnel de vol avec un choix d’odeurs. Les guêpes ont choisi majoritairement l'odeur associée à l'intervalle de temps auquel elles étaient testées. Nous avons également investigué le rôle de la dépense énergétique sur la mesure du temps. Suite à une restriction de mouvement des guêpes pendant l'intervalle de temps entre les hôtes, elles choisissaient aléatoirement dans le tunnel de vol. L'absence de dépense énergétique les aurait rendues incapables de mesurer le temps. La dépense d'énergie est donc un substitut essentiel pour mesurer le temps. Pour la mesure rétrospective du temps, nous avons utilisé le processus d'évaluation de l'hôte de Trichogramma euproctidis (Hymenoptera: Trichogrammatidae). Certains trichogrammes utilisent la durée du transit initial sur l'œuf hôte afin d’en évaluer la taille et d’ajuster le nombre d’œufs à y pondre. Nous avons augmenté artificiellement la durée de transit initiale de T. euproctidis en suspendant l'œuf hôte pour le faire paraître plus gros qu'un œuf de taille similaire. Une augmentation de la durée de transit initiale a augmenté la taille de la ponte. Ceci démontre la capacité de T. euproctidis de mesurer la durée du transit initial, et donc d’une mesure du temps rétrospective. Pour déterminer si la température modifie la mesure du temps dans les espèces poïkilothermes, nous avons utilisé le comportement d’exploitation d’agrégats d’hôtes de T. euproctidis. Les modèles d’optimalités prédisent que les guêpes devraient rester plus longtemps et quitter à un faible taux de gain de valeur adaptative suite à un déplacement de longue durée plutôt que pour un déplacement de courte durée. Nous avons testé l'impact d'un déplacement de 24 h à différentes températures sur l'exploitation d’agrégats d’hôtes. Un déplacement à température chaude augmente le temps de résidence dans l’agrégat et diminue le taux de gain de valeur adaptative au moment de quitter ; ces comportements sont associés à un trajet de longue durée. L'inverse a été observé lors d’un déplacement à une température froide. Les températures chaude et froide ont modulé la mesure du temps en accélérant ou ralentissant l'horloge biologique, faisant paraître le déplacement respectivement plus long ou plus court qu’il ne l’était réellement. Ces résultats démontrent clairement que les guêpes parasitoïdes ont la capacité de mesurer le temps, autant rétrospectivement que prospectivement. Des preuves directes de leur capacité sont maintenant disponibles pour au moins deux espèces de guêpes parasitoïdes, une composante essentielle des modèles d'optimalité. Le rôle de la dépense énergétique dans la mesure du temps a aussi été démontré. Nos résultats fournissent également la preuve de l'impact de la température sur la perception du temps chez les insectes. L'utilisation de la dépense énergétique en tant que proxy pour mesurer le temps pourrait expliquer une partie de sa thermosensibilité, puisque les guêpes parasitoïdes sont poïkilothermes. Cette mesure du temps sensible à la température pourrait affecter des stratégies de lutte biologique. Sur le terrain, au début de la journée, la température de l'air sera similaire à la température de l'air autour des plantes infestées par des parasites, alors qu'elle sera plus chaude pendant la journée. En lutte biologique augmentative, les guêpes parasitoïdes libérées resteraient plus longtemps dans les agrégats d’hôtes que celles relâchées en début de journée.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les modèles d'optimalité postulent que les animaux en quête de ressources utilisent le taux de gain de valeur adaptative pour optimiser plusieurs comportements tels que la répartition du temps lors de l’exploitation d‘un agrégat et l'investissement en progénitures. Bien que la durée de plusieurs comportements doit être régulée, peu d’évidences de la perception du temps sont actuellement disponibles pour les insectes et aucune pour les guêpes parasitoïdes, et ce malgré leur importance en tant que modèles écologiques. De plus, puisque les guêpes parasitoïdes sont poïkilothermes, cette capacité pourrait être affectée par la température. Nous avons supposé que les guêpes parasitoïdes auraient la capacité de percevoir le temps, à la fois de façon prospective (mesure du temps écoulé) et rétrospective (durée d'un événement passé), afin d'optimiser les décisions liées à l'exploitation d’agrégats d’hôtes et à la reproduction. Nous avons également émis l'hypothèse que la température aurait une incidence sur la perception du temps des guêpes parasitoïdes. Pour la mesure prospective du temps, nous avons utilisé la capacité d’apprentissage associatif de Microplitis croceipes (Hymenoptera: Braconidae). Les guêpes ont été entraînées à associer une odeur à la durée d'un intervalle entre des hôtes. Après leur entraînement, elles ont été testées dans un tunnel de vol avec un choix d’odeurs. Les guêpes ont choisi majoritairement l'odeur associée à l'intervalle de temps auquel elles étaient testées. Nous avons également investigué le rôle de la dépense énergétique sur la mesure du temps. Suite à une restriction de mouvement des guêpes pendant l'intervalle de temps entre les hôtes, elles choisissaient aléatoirement dans le tunnel de vol. L'absence de dépense énergétique les aurait rendues incapables de mesurer le temps. La dépense d'énergie est donc un substitut essentiel pour mesurer le temps. Pour la mesure rétrospective du temps, nous avons utilisé le processus d'évaluation de l'hôte de Trichogramma euproctidis (Hymenoptera: Trichogrammatidae). Certains trichogrammes utilisent la durée du transit initial sur l'œuf hôte afin d’en évaluer la taille et d’ajuster le nombre d’œufs à y pondre. Nous avons augmenté artificiellement la durée de transit initiale de T. euproctidis en suspendant l'œuf hôte pour le faire paraître plus gros qu'un œuf de taille similaire. Une augmentation de la durée de transit initiale a augmenté la taille de la ponte. Ceci démontre la capacité de T. euproctidis de mesurer la durée du transit initial, et donc d’une mesure du temps rétrospective. Pour déterminer si la température modifie la mesure du temps dans les espèces poïkilothermes, nous avons utilisé le comportement d’exploitation d’agrégats d’hôtes de T. euproctidis. Les modèles d’optimalités prédisent que les guêpes devraient rester plus longtemps et quitter à un faible taux de gain de valeur adaptative suite à un déplacement de longue durée plutôt que pour un déplacement de courte durée. Nous avons testé l'impact d'un déplacement de 24 h à différentes températures sur l'exploitation d’agrégats d’hôtes. Un déplacement à température chaude augmente le temps de résidence dans l’agrégat et diminue le taux de gain de valeur adaptative au moment de quitter ; ces comportements sont associés à un trajet de longue durée. L'inverse a été observé lors d’un déplacement à une température froide. Les températures chaude et froide ont modulé la mesure du temps en accélérant ou ralentissant l'horloge biologique, faisant paraître le déplacement respectivement plus long ou plus court qu’il ne l’était réellement. Ces résultats démontrent clairement que les guêpes parasitoïdes ont la capacité de mesurer le temps, autant rétrospectivement que prospectivement. Des preuves directes de leur capacité sont maintenant disponibles pour au moins deux espèces de guêpes parasitoïdes, une composante essentielle des modèles d'optimalité. Le rôle de la dépense énergétique dans la mesure du temps a aussi été démontré. Nos résultats fournissent également la preuve de l'impact de la température sur la perception du temps chez les insectes. L'utilisation de la dépense énergétique en tant que proxy pour mesurer le temps pourrait expliquer une partie de sa thermosensibilité, puisque les guêpes parasitoïdes sont poïkilothermes. Cette mesure du temps sensible à la température pourrait affecter des stratégies de lutte biologique. Sur le terrain, au début de la journée, la température de l'air sera similaire à la température de l'air autour des plantes infestées par des parasites, alors qu'elle sera plus chaude pendant la journée. En lutte biologique augmentative, les guêpes parasitoïdes libérées resteraient plus longtemps dans les agrégats d’hôtes que celles relâchées en début de journée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação de mestrado tem por objetivo entender as transformações espaciais ocorridas no município de Petrópolis/RJ, a partir do surgimento de novas centralidades que começam a despontar principalmente a partir da década de 1980. A proposta do presente trabalho também se baseia no estudo da formação de uma economia de serviços no município, como um estágio avançado das economias capitalistas, a partir do forte declínio de sua anterior base industrial e muito incipiente base agrícola, apesar de se tratar de uma cidade média. Desta maneira, Petrópolis começa a estimular determinados ramos do setor terciário que são extremamente importantes e que ainda apresentam a possibilidade de movimentar outros ramos e setores, como por exemplo, turismo e lazer, moda (roupas e confecções), gastronomia, decoração/design e alta tecnologia. No entanto, o estímulo ao desenvolvimento de uma economia de serviços passa necessariamente por ações implementadas pelo poder público, visando remover obstáculos à atração de novos atores que investirão em cidades que atendam às suas necessidades. Por isso, além de políticas públicas, o município investe em infraestrutura urbana para alinhar-se ao empresariamento ou empreendedorismo de cidades, esperando, assim, adentrar ao circuito das city marketing. Mas este modelo de desenvolvimento terciário criou diferenças intra-urbanas no município de Petrópolis quando estimulou o surgimento de novas centralidades que, para nós, se materializa principalmente na imagem do terceiro distrito Itaipava. Esta centralidade apresenta especificidades que a torna lócus importante para uma abastada classe social que pretende não depender de deslocamentos mais longos até o distrito-Sede/Centro Histórico para consumir bens e serviços. Logo, a nova centralidade Itaipava surgirá como um espaço especializado em turismo e lazer, gastronomia, decoração/design e shopping centers, atendendo às exigências mais específicas de uma classe abastada. Porém, mesmo existindo uma nova centralidade, em nenhum momento haverá neste trabalho a construção da ideia de um centro tradicional e histórico esfacelado e agonizante. Muito pelo contrário, o que se percebeu em Petrópolis foi o inverso: o distrito-Sede/Centro Histórico continua sendo o mais dinâmico dentro do território municipal e, ao contrário daquilo observado em grandes cidades, não há uma perda de sua importância, mas sim hierarquias diferentes que se complementam. Prova disso é a sequência de dados que será apresentada no último capítulo. Enfim, um município de porte médio se qualifica enquanto uma economia de serviços, espraiando-se para as áreas afastadas do centro onde, mesmo assim, o centro tradicional não perde sua hegemonia, apesar do surgimento de novas centralidades.