88 resultados para Absetz, Brad: In other words


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des Arts et des Sciences en vue de l'obtention du grade de Maîtrise ès sciences (M.Sc.) en criminologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre le Département de communication de l'Université de Montréal (sous la direction de François Cooren)et le Centre de sociologie des organisation de Sciences Po Paris (Institut d'études politiques de Paris; sous la direction de Bruno Latour).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s'inscrit dans la méthode de praxéologie pastorale. Il analyse en qua-tre temps la mise en œuvre d'une exposition picturale qui oppose une figure alié-nante (conventionnelle et doucereuse) de Jésus à une vision trash (c'est à dire sub-versive et provocante) qui se veut plus fidèle à l'évangile. Le premier temps (ob-servation), qui présente le premier projet d'exposition ainsi que ses sources d'inspi-ration (personnelle, culturelle et artistique), amène à cerner deux problématique : la question de la vérité et l'orientation subversive (trash) du Jésus des évangiles. Le deuxième temps (interprétation) creuse tout d'abord la question de la vérité avec Hans Georg Gadamer, ce qui pousse à dépasser l'affirmation violente de la vérité du premier projet d'exposition pour le réorienter dans une perspective de questionnement. Par ailleurs, un modèle de dynamique trash permet de fonder la figure subversive et provocante de Jésus dans une relecture des évangiles, d’où un troisième temps (intervention) : l’amendement du premier projet d'exposition. En guise de conclusion, le quatrième temps (prospective) exporte des pointes de ré-flexion au-delà de l'interprétation concrète, à savoir au plan des questions de l'art et du public, du deuil de la vérité, de la dynamique trash et de la foi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La leucémie lymphoblastique aiguë (LLA) est responsable d’environ 25% de l’ensemble des cancers pédiatriques. Chez 85% des enfants diagnostiqués, la LLA entraîne une prolifération massive et incontrôlée de lymphocytes immatures de type précurseurs B dans la moelle osseuse (LLA pré-B). Des avancées intéressantes ont été faites au cours des trente dernières années et ont mené à une augmentation de l’efficacité des traitements thérapeutiques. Plus de 80% des enfants atteints de LLA seront guéris de cette maladie. Malheureusement, ces traitements manquent de spécificité à cause du manque de connaissances sur les mécanismes moléculaires impliqués durant l’initiation et le développement de la LLA pré-B pédiatrique. En d’autres termes, nous connaissons peu de chose sur l’étiologie de cette maladie. Plus de 25% des enfants atteints de la LLA pré-B présentent la translocation chromosomique t(12;21)(p13;q22) qui implique les gènes ETV6 et AML1. Celle-ci est formée in utero et mène à l’expression de la protéine chimère transcriptionnelle ETV6-AML1, dont la présence seule ne suffit pas au développement de la LLA pré-B. Ainsi, d’autres événements génétiques sont nécessaires au développement de cette leucémie. La délétion de l’allèle résiduel de ETV6 est un événement génétique fréquemment rencontré au moment du diagnostic de la LLA pré-B t(12;21)+. Cette délétion entraîne l’inactivation complète de ETV6 dans les lymphocytes pré-B leucémiques. ETV6 est un répresseur transcriptionnel de la famille Ets. Mon hypothèse de recherche est que ETV6 agit comme gène suppresseur de tumeur dans la LLA pré-B pédiatrique. L’inactivation de ETV6 causerait une dérégulation de l’expression de ses cibles transcriptionnelles et, par le fait même, favoriserait l’initiation et le déroulement de la leucémogenèse pédiatrique. Dans le cadre de mon projet, comme peu de cibles transcriptionnelles de ETV6 sont connues, j’ai effectué des expériences d’immunoprécipitation de la chromatine et des essais luciférases qui ont permis d’identifier six nouvelles cibles transcriptionnelles: TP53 (p53 et Δ133p53), SPHK1, IL-18, PTGER4 et LUM. J’ai démontré que la régulation transcriptionnelle médiée par ETV6 requiert la présence de ses deux domaines fonctionnels: PNT (interactions protéiques) et ETS (liaison à l’ADN). Ces domaines favorisent la reconnaissance d’un site EBS consensus dans une région située près du promoteur de base. Ce mécanisme peut dépendre du promoteur régulé par ETV6, mais également du contexte cellulaire. Des études fonctionnelles réalisées sur des lymphocytes pré-B leucémiques ont permis de mesurer l’impact de la dérégulation de l’expression des cibles transcriptionnelles de ETV6 sur trois voies biologiques: la prolifération cellulaire, l’apoptose induite par un stress génotoxique et la migration cellulaire dirigée par la voie de signalisation CXCL12/CXCR4. Ceci a permis de démontrer l’implication des gènes SPHK1, IL-18 et PTGER4 durant la leucémogenèse pédiatrique. Cette étude est une des premières à suggérer le rôle de ETV6 comme gène suppresseur de tumeur dans la LLA pré-B pédiatrique. Suite à l’inactivation du répresseur transcriptionnel ETV6, l’augmentation de l’expression de ses cibles transcriptionnelles favoriserait la prolifération et la survie des lymphocytes pré-B leucémiques dans la moelle osseuse. L’identification de nouveaux gènes impliqués dans le développement de la LLA pré-B pédiatrique ouvre la porte au développement de nouveaux traitements thérapeutiques qui pourront présenter une meilleure spécificité envers l’étiologie de la maladie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Reposant sur un devis qualitatif, la présente recherche vise à comprendre les attitudes des bibliothécaires québécois vis-à-vis la liberté intellectuelle et la censure dans le contexte des bibliothèques publiques. Les données ont été colligées par le biais d’entrevues semi-structurées menées auprès de 11 bibliothécaires, dont six directeurs, responsables en tout ou en partie du développement des collections ainsi que de la gestion des plaintes relatives à l’offre documentaire. Les témoignages recueillis ont fait l’objet d’une analyse thématique. À l’instar des études antérieures ayant porté sur le sujet, la présente recherche a permis de constater qu’il existait un écart entre les attitudes des participants vis-à-vis la liberté intellectuelle en tant que concept et la liberté intellectuelle en tant qu’activité. Tout en étant en faveur de la liberté d’expression, les bibliothécaires étaient en accord, sous certaines circonstances, de mesures restrictives. Plus que des défenseurs de la liberté intellectuelle, les bibliothécaires seraient ainsi des gardiens du consensus social, ayant sans cesse à (re)négocier la frontière entre les valeurs individuelles et sociétales. L’analyse des données a également permis de révéler que les bibliothécaires québécois seraient moins activement engagés que leurs collègues canadiens et américains dans la lutte pour la défense et la promotion de la liberté intellectuelle. Ce faible engagement serait notamment lié à une importante variable culturelle. L’absence de lobbies religieux et le développement tardif des bibliothèques publiques ont en effet été identifiés comme deux facteurs qui auraient une influence sur l’engagement des bibliothécaires québécois en faveur de la liberté intellectuelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Qu’est-ce que l’être humain ? La question se pose depuis plusieurs millénaires. Platon n’y échappe pas et il suit l’inscription du temple de Delphes, le fameux « connais-toi toi-même », lorsqu’il cherche à mieux cerner l’homme dans ses écrits. Cette quête de l’essence de l’homme est présente à plusieurs moments de l’œuvre de Platon, mais nous sommes d’avis qu’il ne suggère jamais de définition de l’homme aussi claire que dans l’Alcibiade. Toute la fin de ce dialogue se consacre à cette question et l’on y trouve un Socrate avide de partager sa propre pensée sur le sujet. Les commentateurs de ce dialogue ne s’entendent pourtant pas sur la signification que l’on doit donner à ce développement parfois obscur sur l’essence de l’homme. Plusieurs affirment que l’homme y est présenté comme étant essentiellement son âme, d’aucuns que l’homme y est la réunion du corps et de l’âme, et d’autres encore que l’homme y est plutôt présenté comme étant la partie rationnelle de son âme. Les trois chapitres de ce mémoire présentent et analysent les arguments principaux de chaque camp dans le but de trancher la question. Il y est défendu que dans l’Alcibiade l’homme est, de manière approximative, son âme, mais que de manière plus précise, il correspond à la partie en lui qui domine, soit sa raison. Il y est également suggéré que cette conception de la nature humaine est reprise ailleurs dans le corpus platonicien.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au Québec, la Loi sur les services de santé et les services sociaux, Chapitre S-4.2, à son article 233, demande à ce que chacun des établissements de santé, dispose d’un code d’éthique qui essentiellement demande de préciser les droits des usagers et de fixer les conduites attendues du personnel. Le législateur souhaitait améliorer les conduites du personnel dès le début des années 1990 et envisageait désigner un organisme de surveillance pour s’en assurer. Cette contrainte ne fut pas retenue et 20 ans plus tard, la volonté d’assurer des conduites attendues n’est toujours pas assujettie de contraintes ou de contrôles même si elle est toujours souhaitée. En 2003 toutefois, le Ministre a mis en place un processus de visites ministérielles dans les milieux d’hébergement et à ce jour quelques 150 établissements ont été visités. Ces équipes se sont préoccupées entre autre de la fonction du code d’éthique pour soutenir les directions de ces établissements. Elles ne réussissent pas à pouvoir s’appuyer sur le code d’éthique pour qu’il soit l’assise pour baser les décisions cliniques, organisationnelles et de gestion de chacune des organisations du réseau de la santé et des services sociaux du Québec. Il faut à ce moment-ci faire le constat que le code d’éthique, obligatoire, figure au nombre des nombreuses contraintes rencontrées par les organisations. Les établissements doivent passer un processus d’agrément aux trois ans et le code d’éthique n’est pas davantage un élément dynamique retenu à ce processus de validation de normes de qualité. De plus, une revue québécoise spécialisée en gestion de la santé a consacré un numéro complet de 15 articles sur « éthique et comportements » et le code d’éthique y est absent sauf pour deux articles qui s’y attardent spécifiquement. Est-ce une question d’éthique dont il est question par ce code, ou si ce n’est pas davantage de la déontologie, d’autant que le législateur veut avant tout s’assurer de comportements adéquats de la part des employés et des autres personnes qui exercent leur profession. Est-ce qu’un code de conduite ne serait pas plus approprié pour atteindre les fins visées? Cette question est répondue dans ce mémoire qui regarde les concepts d’éthique, de déontologie, de codes, de régulation des comportements. De plus, des analyses détaillées de 35 codes d’éthique actuels de divers établissements et de diverses régions du Québec iv sont présentées. La littérature nous donne les conditions de réussite pour un code et outre l’importance à accorder aux valeurs énoncées dans l’organisation, il est également question des sanctions à prévoir au non-respect de ces valeurs. Elles se doivent d’être claires et appliquées. Enfin, beaucoup d’organisations parlent maintenant de code de conduite et ce terme serait tout à fait approprié pour rejoindre le souhait du législateur qui veut assurer des conduites irréprochables des employés et autres personnes qui y travaillent. C’est la conclusion de ce travail, énoncée sous forme de recommandation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Peut-on parfois être blâmé pour ses croyances ? Selon les partisans du déontologisme épistémique, la pratique ordinaire consistant à blâmer et critiquer les gens pour leurs croyances est tout à fait légitime. Toutefois, d’autres philosophes soutiennent que malgré son omniprésence dans la vie de tous les jours, le blâme doxastique n’est jamais approprié. En effet, selon l’argument à partir de l’involontarisme doxastique, nous ne pouvons jamais être blâmés pour nos croyances puisque (1) nous pouvons être blâmés pour une croyance seulement si elle est sous notre contrôle volontaire et (2) nos croyances ne sont jamais sous notre contrôle volontaire. Le but de ce mémoire est de déterminer si les déontologistes peuvent répondre de manière convaincante à cet argument. Autrement dit, pouvons-nous parfois être blâmés pour nos croyances malgré ce qu’en disent les anti-déontologistes, ou faut-il leur donner raison et rejeter la pratique du blâme doxastique ? Pour répondre à cette question, je commence par clarifier l’argument anti-déontologiste en précisant la teneur de sa thèse centrale : l’involontarisme doxastique. Par la suite, je passe en revue différentes stratégies qui ont été proposées par des représentants du déontologisme pour défendre le blâme doxastique contre cet argument. Devant l’échec de ces réponses, je suggère une défense alternative du déontologisme selon laquelle l’involontarisme doxastique n’est pas incompatible avec le blâme doxastique. Si cette réponse est concluante, alors nous n’avons pas à donner raison aux anti-déontologistes : nous pouvons parfois être blâmés pour nos croyances.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse a comme objectif général d’enrichir la compréhension du phénomène de mise en œuvre des services cliniques intégrés en contexte organisationnel. Elle s’inscrit dans la perspective théorique du sensemaking organisationnel (Weick, 1995). Dans un premier temps, nous avons étudié comment des acteurs ont construit le sens du projet d’intégration qu’ils devaient mettre en œuvre, et les répercussions de cette construction de sens sur des enjeux cliniques et organisationnels. Le contexte étudié est une nouvelle organisation de santé créée afin d’offrir des services surspécialisés à des personnes aux prises avec un trouble concomitant de santé mentale et de dépendance. Une stratégie de recherche de type qualitatif a été utilisée. L’analyse a reposé sur des données longitudinales (8 ans) provenant de trois sources : des entrevues semi-dirigées, des observations et de l’analyse de documents. Deux articles en découlent. Alors que l’article 1 met l’accent sur la transformation des pratiques professionnelles, l’article 2 aborde le phénomène sous l’angle de l’identité organisationnelle. Dans un deuxième temps, nous avons réalisé une analyse critique des écrits. Celle-ci a porté sur les tendances actuelles dans la façon d’étudier la mise en œuvre des services intégrés pour les troubles concomitants. Les résultats obtenus sont présentés dans l’article 3. Quatre grands constats se dégagent de l’ensemble de ce travail. Le premier est que la mise en œuvre de services cliniques intégrés est un phénomène dynamique, mais sous contrainte. Autrement dit, il s’agit d’un phénomène évolutif qui se définit et se redéfinit au gré des événements, mais avec une tendance lourde à maintenir la direction dans laquelle il s’est déployé initialement. L’énaction et l’engagement des professionnels sont apparus des mécanismes explicatifs centraux à cet égard. Le second constat est que la mise en œuvre s’actualise à travers des niveaux d’intégration interdépendants, ce qui signifie que le contexte et l’objet qui est mis en œuvre coévoluent et se transforment mutuellement. Nos résultats ont montré que la notion de "pratiques de couplage" était utile pour capter cette dynamique. Notre troisième constat est que la mise en œuvre demeure profondément ancrée dans le sens que les membres organisationnels construisent collectivement du projet d’intégration à travers leurs actions et interactions quotidiennes. Cette construction de sens permet de comprendre comment le contenu et la forme du projet d’intégration se façonnent au gré des circonstances, tant dans ses aspects cliniques qu’organisationnels. Enfin, le quatrième constat est que ces dynamiques demeurent relativement peu explorées à ce jour dans les écrits sur l’implantation des services intégrés pour les troubles concomitants. Nous faisons l’hypothèse que ce manque de reconnaissance pourrait expliquer une partie des difficultés de mise en œuvre actuelles. Globalement, ces constats permettent d’enrichir considérablement la compréhension du phénomène en révélant les dynamiques qui le constituent et les enjeux qu’il soulève. Aussi, leur prise en compte par les décideurs et les chercheurs a-t-elle le potentiel de faire progresser les pratiques vers une intégration accrue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les évolutions scientifiques et technologiques engendrent des risques environnementaux complexes. Ces risques doivent être gérés démocratiquement, dans l’intérêt du dêmos. Dans la démocratie représentative, les autorités publiques recourent souvent à l’expertise scientifique pour éclairer leurs décisions relatives à ces risques. Or, ces experts ne le sont pas dans d’autres aspects tout aussi importants tels que les considérations éthiques et les perceptions des risques par le dêmos. En principe, les autorités publiques intègreraient ces autres aspects dans leurs décisions relatives aux risques environnementaux : sur la base d’une évaluation scientifique d’un risque déterminé, les représentants en assureraient une gestion démocratique. Autrement formulé, les autorités publiques garantiraient un filtre démocratique entre l’évaluation scientifique d’un risque environnemental et la décision publique relative à ce risque. Or, sous l’influence exclusive des experts scientifiques et éloignée du dêmos, elles ne sont pas aptes à garantir ce filtre. Les décisions publiques relatives aux risques environnementaux se calquent principalement sur l’évaluation scientifique de ceux-ci. Afin de pallier ces écueils l’idée de faire participer directement le dêmos à l’élaboration de la décision publique environnementale est née. Cette participation enrichirait et nuancerait l’expertise scientifique et permettrait aux autorités publiques d’intégrer dans leurs décisions d’autres facettes des risques environnementaux que les facettes purement scientifiques. Le filtre démocratique entre l’évaluation scientifique et la décision publique serait rétabli. D’abord organisée, en droit international, dans le cadre de l’évaluation des incidences sur l’environnement d’activités susceptibles d’y avoir un impact significatif, la participation directe du public au processus décisionnel a ensuite été étendue. Cela a été tout particulièrement illustré par la convention d’Århus du 25 juin. L’intervention examinera si et comment le système participatif de la convention d’Århus assure réellement une gestion démocratique du risque environnemental et pointera de sérieuses faiblesses démocratiques du système. Explorant les potentialités du système participatif de la convention d’Århus, l’intervention offrira des suggestions pour remédier à ses faiblesses, afin d’assurer une gestion véritablement démocratique du risque environnemental.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.