412 resultados para développement du langage
Resumo:
Bourse de maîtrise du Groupe de recherche sur le système nerveux central GRSNC, (2009,2010) Bourse d’études supérieures du Canada Frederick Banting et Charles Best, IRSC Instituts de recherche en santé du Canada, (2011)
Resumo:
L’implication des protéines tyrosines phosphatases (PTPs) dans la régulation de la signalisation et la médiation des fonctions cellulaires a été bien établie dans les dernières années. Cependant, les mécanismes moléculaires par lesquels les PTPs régulent les processus fondamentaux tels que l’angiogenèse demeurent méconnus. Il a été rapporté que l’expression de la PTP DEP-1 (Density-enhanced phosphatase 1) augmente avec la densité cellulaire et corrèle avec la déphosphorylation du récepteur VEGFR2. Cette déphosphorylation contribue à l’inhibition de contact dans les cellules endothéliales à confluence et diminue l’activité du VEGFR2 en déphosphorylant spécifiquement ses résidus catalytiques Y1054/1059. De plus, la plupart des voies de signalisation en aval du VEGFR2 sont diminuées sauf la voie Src-Gab1-AKT. DEP-1 déphosphoryle la Y529 de Src et contribue à la promotion de la survie dans les cellules endothéliales. L’objectif de cette thèse est de mieux définir le rôle de DEP-1 dans la régulation de l’activité de Src et les réponses biologiques dans les cellules endothéliales. Nous avons identifié les résidus Y1311 et Y1320 dans la queue C-terminale de DEP-1 comme sites majeurs de phosphorylation en réponse au VEGF. La phosphorylation de ces résidus est requise pour l’activation de Src et médie le remodelage des jonctions cellules-cellules dépendantes de Src. Ce remodelage induit la perméabilité, l’invasion et la formation de capillaires en réponse au VEGF. Nos résultats démontrent que la phosphorylation de DEP-1 sur résidu tyrosine est requise pour diriger la spécificité de DEP-1 vers son substrat Src. Les travaux révèlent pour la première fois un rôle positif de DEP-1 sur l’induction du programme angiogénique des cellules endothéliales. En plus de la phosphorylation sur tyrosine, DEP-1 est constitutivement phosphorylé sur la thréonine 1318 situé à proximité de la Y1320 en C-terminal. Cette localisation de la T1318 suggère que ce résidu pourrait être impliqué dans la régulation de la Y1320. En effet, nous avons observé que la T1318 de DEP-1 est phosphorylée potentiellement par CK2, et que cette phosphorylation régule la phosphorylation de DEP-1 sur tyrosine et sa capacité de lier et d’activer Src. En accord avec ces résultats, nos travaux révèlent que la surexpression du mutant DEP-1 T1318A diminue le remodelage des jonctions cellules-cellules et par conséquent la perméabilité. Nos résultats suggèrent donc que la T1318 de DEP-1 constitue un nouveau mécanisme de contrôle de la phosphorylation sur tyrosine et que ceci résulte en l’activation de Src et l’induction des fonctions biologiques des cellules endothéliales en réponse au VEGF. Suite à ces travaux dans les cellules endothéliales qui démontrent un rôle positif de DEP-1 dans la médiation des réponses angiogéniques, nous avons voulu approfondir nos connaissances sur l’implication potentielle de DEP-1 dans les cellules cancéreuses où l’activité de Src est requise pour la progression tumorale. Malgré le rôle connu de DEP-1 comme suppresseur tumoral dans différents types de cancer, nous avons émis l’hypothèse que DEP-1 pourrait promouvoir les fonctions biologiques dépendantes de Src telles que la migration et l’invasion dans les cellules cancéreuses. Ainsi, nous avons observé que l’expression de DEP-1 est plus élevée dans les lignées basales de cancer du sein qui sont plus invasives comparativement aux lignées luminales peu invasives. Dans les lignées basales, DEP-1 active Src, médie la motilité cellulaire dépendante de Src et régule la localisation des protéines impliquées dans l’organisation du cytosquelette. L’analyse d’un micro-étalage de tissu a révélé que l’expression de DEP-1 est associée avec une réduction tendencielle de survie des patients. Nos résultats proposent donc, un rôle de promoteur tumoral pour DEP-1 dans la progression du cancer du sein. Les travaux présentés dans cette thèse démontrent pour la première fois que DEP-1 peut agir comme promoteur des réponses angiogéniques et du phénotype pro-invasif des lignées basales du cancer du sein probablement du à sa capacité d’activer Src. Nos résultats suggèrent ainsi que l’expression de DEP-1 pourrait contribuer à la progression tumorale et la formation de métastases. Ces découvertes laissent donc entrevoir que DEP-1 représente une nouvelle cible thérapeutique potentielle pour contrer l’angiogenèse et le développement du cancer.
Resumo:
Au cours de la grossesse, une perfusion placentaire adéquate est indispensable au bon développement du fœtus. Dans certaines maladies comme la prééclampsie, celle-ci est altérée, compromettant ainsi la vie du fœtus, mais aussi celle de sa mère. Le retrait du placenta mène à la disparition des symptômes de la prééclampsie, suggérant un rôle central de ce dernier dans la maladie. Le placenta étant dépourvu d’innervation autonome, le tonus vasculaire placentaire doit être sous le contrôle de facteurs humoraux et tissulaires. Les vaisseaux placentaires sont très réactifs aux prostanoïdes. Le rapport thromboxane A2 (TXA2)/prostacycline (PGI2) est fortement augmenté dans les placentas de grossesses avec prééclampsie. De plus, le taux d’isoprostane, marqueur du stress oxydatif, est accru dans les placentas de femmes avec prééclampsie. Finalement, la prééclampsie s’accompagne d’un stress oxydatif placentaire marqué. Les espèces réactives de l’oxygène sont connues d’une part, pour oxyder l’acide arachidonique (AA), formant ainsi des isoprostanes et d’autre part, pour augmenter la production de TXA2 dans différents tissus, suite à l’activation des cyclooxygénases (COXs). Nous proposons que : 1. les prostanoïdes sont parmi les molécules endogènes qui contrôlent le tonus vasculaire placentaire. 2. la maladie modifie la réponse aux isoprostanes dans les vaisseaux placentaires. 3. l’induction d’un stress oxydatif placentaire entraîne une réponse vasoactive par activation de la voie du métabolisme de l’AA. Nous avons tout d’abord montré, dans des placentas obtenus de grossesses normotensives, que l’U-46619, un mimétique de la TXA2, de même que l’isoprostane, 8-iso-prostaglandine E2 (8-isoPGE2), ont augmenté fortement la pression de perfusion dans les cotylédons perfusés in vitro et la tension dans les anneaux d’artères chorioniques suspendus dans des bains à organe isolé. En revanche, dans les artères chorioniques de placentas obtenus de grossesses avec prééclampsie, ces réponses étaient modifiées puisque la réponse maximale à l’U-46619 était augmentée et celle à la 8-isoPGE2 diminuée. D’autre part, nous avons montré que les réponses maximales aux deux prostanoïdes étaient augmentées dans les vaisseaux placentaires de grossesse normale ou avec prééclampsie issus d’une délivrance prématurée par rapport à ceux d’une délivrance à terme. Ceci suggère une évolution de la réactivité des artères placentaires au cours du 3e trimestre de grossesse. En outre, les vaisseaux placentaires ont répondu aux prostanoïdes de façon semblable qu’ils aient été issus d’un accouchement vaginal ou d’une césarienne élective. Ceci indique que les prostanoïdes placentaires n’interviennent pas dans le processus de délivrance. D’un autre côté, l’utilisation de bloqueurs spécifiques des récepteurs TP à la TXA2, le SQ29,548 et l’ICI192,605, et des récepteurs EP à la prostaglandine E2, l’AH6809, nous ont permis de mettre en évidence le fait que l’U-46619 et la 8-isoPGE2 pouvaient agir de façon non-sélective sur l’un ou l’autre des récepteurs. Ces résultats supportent donc nos 2 premières hypothèses : les prostanoïdes font partie des molécules endogènes qui peuvent contrôler le tonus vasculaire placentaire et la prééclampsie modifie la réponse aux isoprostanes dans les artères chorioniques d’une manière compatible avec l’augmentation de la production de ces substances qui elle, est probablement le résultat du stress oxydatif. En revanche, en ce qui concerne les substances capables de jouer la contrepartie vasodilatatrice, l’utilisation d’un inhibiteur des synthases de monoxyde d’azote, le L-NAME, et celle d’inhibiteurs des COXs, l’ibuprofène, l’indométacine et le N-2PIA, ne nous a pas permis de mettre en évidence un quelconque rôle du monoxyde d’azote ou des prostanoïdes vasodilatatrices à ce niveau. Finalement, nous avons montré que l’induction d’un stress oxydatif dans les cotylédons perfusés in vitro et les artères chorioniques entraînait une vasoconstriction marquée. Celle-ci semble résulter de l’action des prostanoïdes puisqu’un blocage des récepteurs TP ou des COXs diminuait significativement la réponse maximale au peroxyde d’hydrogène. Les prostanoïdes impliquées dans la réponse au stress oxydatif proviendraient essentiellement d’une activation des COXs puisque l’étude ne nous permet pas de conclure à une quelconque implication des isoprostanes dans cette réponse. Ces observations confirment donc notre hypothèse que, dans le placenta, le stress oxydatif possède des propriétés vasoactives par activation du métabolisme de l’AA. En résumé, les résultats obtenus dans les placentas de grossesses normotensives et avec prééclampsie suggèrent que les prostanoïdes sont des molécules d’importance dans la régulation du tonus vasculaire placentaire. Le fait que la prééclampsie modifie la réponse aux prostanoïdes pourrait expliquer pourquoi la perfusion placentaire est altérée chez ces patientes. En outre, il apparaît évident qu’il existe un lien étroit entre le stress oxydatif et la voie de synthèse des prostanoïdes placentaires. Cependant d’autres études sont nécessaires pour mieux comprendre la nature de ce lien, qui pourrait, d’une certaine façon, jouer un rôle important dans le développement de la prééclampsie.
Resumo:
L’une des particularités fondamentales caractérisant les cellules végétales des cellules animales est la présence de la paroi cellulaire entourant le protoplaste. La paroi cellulaire joue un rôle primordial dans (1) la protection du protoplaste, (2) est impliquée dans les mécanismes de filtration et (3) est le lieu de maintes réactions biochimiques nécessaires à la régulation du métabolisme et des propriétés mécaniques de la cellule. Les propriétés locales d’élasticité, d’extensibilité, de plasticité et de dureté des composants pariétaux déterminent la géométrie et la forme des cellules lors des processus de différentiation et de morphogenèse. Le but de ma thèse est de comprendre les rôles que jouent les différents composants pariétaux dans le modelage de la géométrie et le contrôle de la croissance des cellules végétales. Pour atteindre cet objectif, le modèle cellulaire sur lequel je me suis basé est le tube pollinique ou gamétophyte mâle. Le tube pollinique est une protubérance cellulaire qui se forme à partir du grain de pollen à la suite de son contact avec le stigmate. Sa fonction est la livraison des cellules spermatiques à l’ovaire pour effectuer la double fécondation. Le tube pollinique est une cellule à croissance apicale, caractérisée par la simple composition de sa paroi et par sa vitesse de croissance qui est la plus rapide du règne végétal. Ces propriétés uniques font du tube pollinique le modèle idéal pour l’étude des effets à courts termes du stress sur la croissance et le métabolisme cellulaire ainsi que sur les propriétés mécaniques de la paroi. La paroi du tube pollinique est composée de trois composantes polysaccharidiques : pectines, cellulose et callose et d’une multitude de protéines. Pour comprendre les effets que jouent ces différents composants dans la régulation de la croissance du tube pollinique, j’ai étudié les effets de mutations, de traitements enzymatiques, de l’hyper-gravité et de la gravité omni-directionnelle sur la paroi du tube pollinique. En utilisant des méthodes de modélisation mathématiques combinées à de la biologie moléculaire et de la microscopie à fluorescence et électronique à haute résolution, j’ai montré que (1) la régulation de la chimie des pectines est primordiale pour le contrôle du taux de croissance et de la forme du tube et que (2) la cellulose détermine le diamètre du tube pollinique en partie sub-apicale. De plus, j’ai examiné le rôle d’un groupe d’enzymes digestives de pectines exprimées durant le développement du tube pollinique : les pectate lyases. J’ai montré que ces enzymes sont requises lors de l’initiation de la germination du pollen. J’ai notamment directement prouvé que les pectate lyases sont sécrétées par le tube pollinique dans le but de faciliter sa pénétration au travers du style.
Resumo:
Le glaucome représente la première cause de cécité irréversible à l’échelle mondiale. C’est une maladie neuro-dégénérative caractérisée traditionnellement par une pression intraoculaire (PIO) élevée, un dommage du nerf optique et un défaut du champ visuel correspondant. En fait, la PIO élevée constitue le facteur de risque central associé au développement du glaucome. Cependant, en dépit d’un contrôle adéquat de la PIO, la maladie continue à progresser chez certains patients. Cela montre qu’il existe d’autres facteurs impliqués dans la pathogenèse du glaucome. Des études récentes indiquent qu’un dérèglement de l’oxygène est associé à son développement. En utilisant une nouvelle technologie multi-spectrale capable de mesurer la saturation en oxygène (SaO2) dans les structures capillaires de la rétine, cette étude tentera de déterminer si un état d’oxygénation anormal pourrait se retrouver à la papille optique des patients souffrant de glaucome. Une meilleure compréhension du rôle de l’oxygène pourrait aider à améliorer le pronostic du glaucome. Les résultats de l’étude indiquent que le facteur de position (supérieure, temporale et inférieure de la papille optique) n’a aucun effet sur la mesure SaO2 ainsi que sa variabilité chez les patients normaux. La comparaison de la SaO2 entre les sujets normaux et glaucomateux ne montre pas de différence statistiquement significative. En conclusion, la SaO2 «normale» mesurée dans les yeux glaucomateux n'exclut pas nécessairement que l'hypoxie ne soit pas impliquée dans la pathogenèse. Au moment de l’étude, la PIO était bien contrôlée par des médicaments topiques, ce qui pourrait influencer l’oxygénation à la papille optique.
Resumo:
Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.
Resumo:
En observant le foisonnement de métaphores de la lumière et de la vision dans l’œuvre de Reinaldo Arenas – l’accentuation de la couleur, l’éblouissement, la brûlure et le dédoublement – cette thèse s’interroge sur la vision de l’écriture formulée dans et à partir de ces images, et sur les implications de cette vision. Constatant à travers cette réflexion l’inscription à même le langage des images de la lumière et de la vision – de la réflexion à la clarté, en passant par l’image et la lucidité – cette thèse délibère, à travers l’œuvre de Reinaldo Arenas et celle de Jorge Luis Borges, sur une définition de l’écriture comme intensité, notion et image empruntées au registre du sensible par le détour de la physique. Le premier chapitre s’intéresse à la couleur comme phénomène de la vision, du sensible, de l’affect et de la nuance, ainsi qu’à la métaphore de la cécité abordée par Borges et par Paul de Man comme phénomène de la lecture, points d’entrée à une réflexion sur l’écriture. Le second chapitre aborde la notion d’éblouissement en tant qu’intensité de la lumière et temporalité de la prise de conscience lucide, définissant ainsi une vision du temps et les affinités entre la temporalité de l’écriture et celle de l’image poétique. Le troisième chapitre, réitérant la question de la relation au temps – historique et narratif –, réaffirme les inflexions du langage en fonction de la lumière, c’est-à-dire la relation entre l’aspect « lumineux » du langage, l’intensité de la lumière et l’intensité de l’écriture (entendue comme écriture littéraire), en explorant le seuil (la destruction par le feu) mis en lumière par l’image du phénix, figure mythique et littéraire de la transformation des images, selon la définition de l’imagination proposée par Gaston Bachelard. Enfin, la double conclusion (une conclusion en deux parties, ou deux conclusions réfléchies l’une dans l’autre), relie les images poétiques de la lumière évoquées et leurs implications en examinant la portée d’une vision de l’écriture comme intensité. Cette idée est élaborée à travers l’image finale du double, figure littéraire constitutive et omniprésente à la fois chez Arenas et chez Borges, image non seulement de la relation entre le personnage et son double (qui relève de l’hallucination ou de l’imagination, images, encore une fois, de la vision), mais aussi de la relation entre l’auteur et le texte, le lecteur et le texte, l’écriture et le temps. La double conclusion vise le dédoublement et redoublement comme figures de l’intensité dans l’écriture. Le lien entre la vision métaphorique et l’écriture comme intensité est donc articulé par la métaphore, telle qu’entendue par Borges, élargie à l’image poétique dans la perspective de Gaston Bachelard ; elle s’appuie sur la vision de la littérature pensée et écrite par Arenas. La réflexion est double : dans le texte et sur le texte, au plan poétique et au plan d’une réflexion sur l’écriture d’Arenas ; sur l’écriture et, implicitement, sur la littérature.
Resumo:
Le diabète de type 2 (DT2) est une maladie métabolique complexe causée par des facteurs génétiques mais aussi environnementaux, tels la sédentarité et le surpoids. La dysfonction de la cellule β pancréatique est maintenant reconnue comme l’élément déterminant dans le développement du DT2. Notre laboratoire s’intéresse à la sécrétion d’insuline par la cellule β en réponse aux nutriments calorigéniques et aux mécanismes qui la contrôle. Alors que la connaissance des mécanismes responsables de l’induction de la sécrétion d’insuline en réponse aux glucose et acides gras est assez avancée, les procédés d’inhibition de la sécrétion dans des contextes normaux ou pathologiques sont moins bien compris. L’objectif de la présente thèse était d’identifier quelques-uns de ces mécanismes de régulation négative de la sécrétion d’insuline dans la cellule β pancréatique, et ce en situation normale ou pathologique en lien avec le DT2. La première hypothèse testée était que l’enzyme mitochondriale hydroxyacyl-CoA déshydrogénase spécifique pour les molécules à chaîne courte (short-chain hydroxyacyl-CoA dehydrogenase, SCHAD) régule la sécrétion d’insuline induite par le glucose (SIIG) par la modulation des concentrations d’acides gras ou leur dérivés tels les acyl-CoA ou acyl-carnitine dans la cellule β. Pour ce faire, nous avons utilisé la technologie des ARN interférants (ARNi) afin de diminuer l’expression de SCHAD dans la lignée cellulaire β pancréatique INS832/13. Nous avons par la suite vérifié chez la souris DIO (diet-induced obesity) si une exposition prolongée à une diète riche en gras activerait certaines voies métaboliques et signalétiques assurant une régulation négative de la sécrétion d’insuline et contribuerait au développement du DT2. Pour ce faire, nous avons mesuré la SIIG, le métabolisme intracellulaire des lipides, la fonction mitochondriale et l’activation de certaines voies signalétiques dans les îlots de Langerhans isolés des souris normales (ND, normal diet) ou nourries à la dière riche en gras (DIO) Nos résultats suggèrent que l’enzyme SCHAD est importante dans l’atténuation de la sécrétion d’insuline induite par le glucose et les acides aminés. En effet, l’oxydation des acides gras par la protéine SCHAD préviendrait l’accumulation d’acyl-CoA ou de leurs dérivés carnitine à chaîne courtes potentialisatrices de la sécrétion d’insuline. De plus, SCHAD régule le métabolisme du glutamate par l’inhibition allostérique de l’enzyme glutamate déshydrogénase (GDH), prévenant ainsi une hyperinsulinémie causée par une sur-activité de GDH. L’étude de la dysfonction de la cellule β dans le modèle de souris DIO a démontré qu’il existe une grande hétérogénéité dans l’obésité et l’hyperglycémie développées suite à la diète riche en gras. L’orginialité de notre étude réside dans la stratification des souris DIO en deux groupes : les faibles et forts répondants à la diète (low diet responders (LDR) et high diet responder (HDR)) sur la base de leur gain de poids corporel. Nous avons mis en lumières divers mécanismes liés au métabolisme des acides gras impliqués dans la diminution de la SIIG. Une diminution du flux à travers le cycle TG/FFA accompagnée d’une augmentation de l’oxydation des acides gras et d’une accumulation intracellulaire de cholestérol contribuent à la diminution de la SIIG chez les souris DIO-HDR. De plus, l’altération de la signalisation par les voies AMPK (AMP-activated protein kinase) et PKC epsilon (protéine kinase C epsilon) pourrait expliquer certaines de ces modifications du métabolisme des îlots DIO et causer le défaut de sécrétion d’insuline. En résumé, nous avons mis en lumière des mécanismes importants pour la régulation négative de la sécrétion d’insuline dans la cellule β pancréatique saine ou en situation pathologique. Ces mécanismes pourraient permettre d’une part de limiter l’amplitude ou la durée de la sécrétion d’insuline suite à un repas chez la cellule saine, et d’autre part de préserver la fonction de la cellule β en retardant l’épuisement de celle-ci en situation pathologique. Certaines de ces voies peuvent expliquer l’altération de la sécrétion d’insuline dans le cadre du DT2 lié à l’obésité. À la lumière de nos recherches, le développement de thérapies ayant pour cible les mécanismes de régulation négative de la sécrétion d’insuline pourrait être bénéfique pour le traitement de patients diabétiques.
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
«Building Blocks: Children’s Literature and the Formation of a Nation, 1750-1825» examine la façon dont la littérature pour enfants imprègne les jeunes lecteurs avec un sens de nationalisme et d'identité nationale à travers la compréhension des espaces et des relations spatiales. La thèse étudie les œuvres d’enfants par Thomas Day, Sarah Fielding, Mary Wollstonecraft, Richard Lovell et Maria Edgeworth, Charles et Mary Lamb, Sarah Trimmer, Lucy Peacock, Priscilla Wakefield, John Aikin, et Anna Laetitia Barbauld. Les différents sujets thématiques reflètent la façon dont les frontières entre les dimensions extérieures et intérieures, entre le monde physique et le domaine psychologique, sont floues. En s'appuyant sur les travaux de penseurs éducatifs, John Locke et Jean-Jacques Rousseau, les écritures pour les enfants soulignent l'importance des expériences sensorielles qui informent l’évolution interne des individus. En retour, la projection de l'imagination et l'investissement des sentiments aident à former la manière dont les gens interagissent avec le monde matériel et les uns envers les autres afin de former une nation. En utilisant une approche Foucaldienne, cette thèse montre comment la discipline est inculquée chez les enfants et les transforme en sujets réglementés. Grâce à des confessions et des discours, les enfants souscrivent à la notion de surveillance et de transparence tandis que l'appréciation de l'opinion publique encourage la pratique de la maîtrise de soi. Les enfants deviennent non seulement des ébauches, sensibles à des impressions, mais des corps d'écriture lisibles. Les valeurs et les normes de la société sont internalisées pendant que les enfants deviennent une partie intégrale du système qu'ils adoptent. L'importance de la visibilité est également soulignée dans la popularité du système de Linné qui met l'accent sur l'observation et la catégorisation. L'histoire naturelle dans la littérature enfantine renforce la structure hiérarchique de la société, ce qui souligne la nécessité de respecter les limites de classes et de jouer des rôles individuels pour le bien-être de la collectivité. Les connotations religieuses dans l'histoire naturelle peuvent sembler justifier l'inégalité des classes, mais elles diffusent aussi des messages de charité, de bienveillance et d'empathie, offrant une alternative ou une forme d’identité nationale «féminine» qui est en contraste avec le militarisme et le nationalisme patricien. La seconde moitié de la thèse examine comment la théorie des « communautés imaginées » de Benedict Anderson devient une possibilité à travers le développement du goût national et une compréhension de l'interconnexion entre les individus. Le personnage du barde pointe à la centralité de l'esprit communautaire dans l'identité nationale. Parallèlement à la commercialisation croissante de produits culturels et nationaux durant cette période, on retrouve l’augmentation de l’attachement affectif envers les objets et la nécessité de découvrir l'authentique dans la pratique de la réflexion critique. La propriété est redéfinie à travers la question des «vrais» droits de propriété et devient partagée dans l'imaginaire commun. Des cartes disséquées enseignent aux enfants comment visualiser des espaces et des frontières et conceptualisent la place de l’individu dans la société. Les enfants apprennent que des actions disparates effectuées dans la sphère domestique ont des répercussions plus importantes dans le domaine public de la nation.
Resumo:
Il est devenu commun de dire que notre société se transforme inexorablement en une société dite de « l'information ». Cette transformation se caractérise entre autres par une utilisation accrue des technologies de l’information afin de communiquer, d’échanger ou de transiger. Les supports traditionnels de communication (tel que le papier) cèdent progressivement leur place à de nouveaux supports technologiques favorisant l’efficacité et la rapidité des échanges, et par la même occasion le développement du commerce électronique. Qu’on le souhaite ou non, un constat s’impose : la montée en puissance des réseaux virtuels a eu raison du monopole du papier. Sur le plan juridique, cette nouvelle réalité bouleverse aussi considérablement les règles de droit civil largement pensées et ancrées dans un contexte papier. L’avènement de la numérisation et du phénomène de la dématérialisation des supports ont effectivement soulevé plusieurs questions d’ordre juridique tout à fait nouvelles que nous pourrions résumer de la manière suivante : Quels sont les rapports entre l’écrit et son support autre que le papier? Quelles sont les caractéristiques de l’écrit faisant appel aux technologies de l’information? Ce type d’écrit peut-il être admis en tant que moyen de preuve? Si oui, quelle sera sa force probante? Ce type d’écrit doit-il être conservé? Le présent mémoire vise précisément à identifier certains éléments de réponses à ces diverses questions en étudiant spécifiquement les cadres juridiques français et québécois. Ce mémoire traite d’une part des enjeux liés à l’évolution et au rôle de l’écrit face à l’avènement des technologies de l’information et d’autre part du cadre juridique de la preuve et de la conservation de l’écrit dans la société de l’information.
Resumo:
"L’auteur présente une analyse générale de l’évolution historique et des développements récents du régime des droits d’auteur au Canada. Avec le développement des nouvelles technologies de l’information, et plus spécifiquement de l’Internet, le régime canadien des droits d’auteur nécessiterait d’importantes réformes. L’auteur déplore toutefois les modifications récentes issues de la loi C-60. En effet, selon lui, ces changements ne correspondent pas au régime international proposé par l’Organisation Mondiale de Propriété Intellectuelle. En fait, ceux-ci cadrent beaucoup plus avec la perspective américaine de protection limitative des droits d’auteur. Michael Geist trace d’abord l’historique du développement du régime de protection des droits d’auteur au Canada. Il souligne notamment les modifications législatives importantes de la fin des années 1980 et 1990 qui visaient à renforcer les règles de reconnaissance et de protection des droits que les auteurs canadiens possèdent sur leurs œuvres. Parallèlement, à ces modifications législatives, la Cour Suprême du Canada s’est aussi prononcée sur la question des droits d’auteur en interprétant limitativement la portée de ce régime, facilitant ainsi l’accès des œuvres artistiques au domaine public. L’auteur souligne les divergences et les contradictions entre la conception législative et celle jurisprudentielle de la fonction du régime canadien des droits d’auteur. Le législateur canadien a récemment proposé une nouvelle modification du régime de droits d’auteurs qui consisterait en l’extension des délais obligatoire avant qu’une œuvre couverte par le régime ne soit incluse dans le domaine public. Michael Geist s’oppose à une telle modification et soutient qu’elle entraînerait de nombreuses conséquences négatives pour les auteurs et les artistes canadiens. En effet, cette modification limiterait l’accès des auteurs aux oeuvres antérieures, elle entraverait les opportunités et les capacités commerciales des œuvres canadiennes et restreindrait les domaines de recherche académique. L’auteur aborde par la suite la problématique reliée aux ""Mesures de Protection Techniques"" et à la législation qui les encadre. En analysant les problèmes causés par ces mesures aux États-Unis, il présente leurs effets nuisibles pour les domaines fondamentaux de la liberté de parole et de la recherche académique. Les réformes possibles du régime canadien des droits d’auteur se situent dans une perspective plus ouverte du régime de protection et de promotion des œuvres canadiennes. Ces réformes auraient l’avantage de promouvoir et de protéger les œuvres canadiennes tout en évitant les problèmes causés par les mesures trop limitatives. À ce sujet, l’auteur propose l’établissement d’une bibliothèque digitale nationale, l’abrogation des droits d’auteur de la couronne et un nouveau régime permettant l’utilisation du matériel radiodiffusé de la Société Radio-Canada."
Resumo:
"Herbert Burket trace l’évolution des concepts reliés au ""droit de l’Internet"" dans le cadre du droit de l’Union Européenne. Initialement, ce domaine du droit était perçu comme une nouvelle discipline normative. Or, l’auteur soutient que le ""droit de l’Internet"" n’est pas un domaine normatif distinct, mais correspond aux domaines traditionnels auxquels il a été progressivement intégré. Le ""droit de l’Internet"" a amélioré notre compréhension du processus général d’évolution du droit. L’auteur souligne, entre autres, comment le législateur européen a réagi par diverses législations aux nouveaux impératifs technologiques. De plus, ce domaine offre une nouvelle perspective pour l’analyse de l’évolution des normes face aux innovations technologiques. Les tribunaux, les législateurs et les parties privées sont autant d’acteurs qui interviennent à différents moments et sur différents aspects du processus d’évolution du droit. Enfin, on s’attendait à ce que le droit de l’Internet conduise à la mondialisation des normes, à l’autorégulation des acteurs et à une architecture structurelle normative ouverte. L’auteur constate que la mondialisation des normes ne semble pas s’être réalisée. L’autorégulation, dans le domaine de l’Internet, fait référence aux normes de comportement établies par des acteurs privés et mixtes. Enfin, le concept d’architecture structurelle normative réfère au fait que les créateurs d’un système technologique imposent involontairement certaines règles aux utilisateurs, en dépit de l’affirmation qu’un tel système technologique est normativement neutre. L’auteur soutient que ces attentes, bien qu’elles soient toujours présentes au sein de l’activité normative, n’ont plus la même signification qu’au moment de leur formulation originale. Les concepts traditionnels de période normative, de juridiction, d’acteurs et de procédure ont aussi évolué parallèlement au développement du ""droit de l’Internet"", autant dans le cadre de l’environnement normatif de l’Union Européenne que dans celui du droit international en général. L’évolution de ces concepts modifie le processus de création du droit, ainsi que le rôle et les fonctions des intervenants impliqués dans ce processus.L’auteur conclut en soulignant que le concept même de droit a évolué en perdant ses représentations symboliques traditionnelles grâce au développement de l’accès généralisé à l’information, à l’évolution des technologies de l’information et à leur impact culturel."
Resumo:
Dans l’espace réel, l’identité d’une personne est clairement circonscrite à l’état civil et pleinement protégée par le droit interne des pays. Alors que dans le cyberespace, les contours de la notion sont plutôt flous, voire incertains. Le développement du commerce électronique et la croissance des transactions en ligne ont donné naissance au « crime » de l’usurpation d’identité. Et si l’usurpation d’identité a pu émerger, c’est grâce à la spécificité du médium, qui s’est avéré un terrain fertile aux abus des usurpateurs d’identité. Ce présent article étudie et analyse la fraude, le vol et l’escroquerie en tant qu’infractions économiques commises dans le cyberespace par le biais du système informatique. Il constate la désuétude et l’inefficacité des infractions prévues dans le droit pénal canadien relativement à l’incrimination du crime de l’usurpation d’identité et propose une solution basée sur des approches réglementaires, législatives et techniques.
Resumo:
Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.