602 resultados para Pirate informatique
Resumo:
A unified and general vision of different space-time processors is presented. Many popular receivers can beaccomodated, like V-RAKE receivers, weighted V-RAKE, or spatial narrowband beamforming. By makingappropriate assumptions on the space/time characteristic of the interference it is possible to enhance theperformance of the receiver through spatial/temporal pre-processors. These receivers will be tested in the FDDmode of UTRA.
Resumo:
Les cellules CD8? T cytolytiques (CTL) sont les principaux effecteurs du système immunitaire adaptatif contre les infections et les tumeurs. La récente identification d?antigènes tumoraux humains reconnus par des cellules T cytolytiques est la base pour le, développement des vaccins antigène spécifiques contre le cancer. Le nombre d?antigènes tumoraux reconnus par des CTL que puisse être utilisé comme cible pour la vaccination des patients atteints du cancer est encore limité. Une nouvelle technique, simple et rapide, vient d?être proposée pour l?identification d?antigènes reconnus par des CTL. Elle se base sur l?utilisation de librairies combinatoriales de peptides arrangées en un format de "scanning" ou balayage par position (PS-SCL). La première partie de cette étude a consisté à valider cette nouvelle technique par une analyse détaillée de la reconnaissance des PS-SCL par différents clones de CTL spécifiques pour des antigènes associés à la tumeur (TAA) connus ainsi que par des clones de spécificité inconnue. Les résultats de ces analyses révèlent que pour tous les clones, la plupart des acides aminés qui composent la séquence du peptide antigénique naturel ont été identifiés par l?utilisation des PS-SCL. Les résultats obtenus ont permis d?identifier des peptides analogues ayant une antigènicité augmentée par rapport au peptide naturel, ainsi que des peptides comportant de multiples modifications de séquence, mais présentant la même réactivité que le peptide naturel. La deuxième partie de cette étude a consisté à effectuer des analyses biométriques des résultats complexes générés par la PS-SCL. Cette approche a permis l?identification des séquences correspondant aux épitopes naturels à partir de bases de données de peptides publiques. Parmi des milliers de peptides, les séquences naturelles se trouvent comprises dans les 30 séquences ayant les scores potentiels de stimulation les plus élevés pour chaque TAA étudié. Mais plus important encore, l?utilisation des PS-SCL avec un clone réactif contre des cellules tumorales mais de spécificité inconnue nous a permis d?identifier I?epitope reconnu par ce clone. Les données présentées ici encouragent l?utilisation des PS-SCL pour l?identification et l?optimisation d?épitopes pour des CTL réactifs anti-tumoraux, ainsi que pour l?étude de la reconnaissance dégénérée d?antigènes par les CTL.<br/><br/>CD8+ cytolytic T lymphocytes (CTL) are the main effector cells of the adaptive immune system against infection and tumors. The recent identification of moleculariy defined human tumor Ags recognized by autologous CTL has opened new opportunities for the development of Ag-specific cancer vaccines. Despite extensive work, however, the number of CTL-defined tumor Ags that are suitable targets for the vaccination of cancer patients is still limited, especially because of the laborious and time consuming nature of the procedures currentiy used for their identification. The use of combinatorial peptide libraries in positionai scanning format (Positional Scanning Synthetic Combinatorial Libraries, PS-SCL)' has recently been proposed as an alternative approach for the identification of these epitopes. To validate this approach, we analyzed in detail the recognition of PS-SCL by tumor-reactive CTL clones specific for multiple well-defined tumor-associated Ags (TAA) as well as by tumor-reactive CTL clones of unknown specificity. The results of these analyses revealed that for all the TAA-specific clones studied most of the amino acids composing the native antigenic peptide sequences could be identified through the use of PS-SCL. Based on the data obtained from the screening of PS-SCL, we could design peptide analogs of increased antigenicity as well as cross-reactive analog peptides containing multiple amino acid substitutions. In addition, the resuits of PS-SCL-screening combined with a recently developed biometric data analysis (PS-SCL-based biometric database analysis) allowed the identification of the native peptides in public protein databases among the 30 most active sequences, and this was the case for all the TAA studied. More importantiy, the screening of PS- SCL with a tumor-reactive CTL clone of unknown specificity resulted in the identification of the actual epitope. Overall, these data encourage the use of PS-SCL not oniy for the identification and optimization of tumor-associated CTL epitopes, but also for the analysis of degeneracy in T lymphocyte receptor (TCR) recognition of tumor Ags.<br/><br/>Les cellules T CD8? cytolytiques font partie des globules blancs du sang et sont les principales responsables de la lutte contre les infections et les tumeurs. Les immunologistes cherchent depuis des années à identifier des molécules exprimées et présentées à la surface des tumeurs qui puissent être reconnues par des cellules T CD8? cytolytiques capables ensuite de tuer ces tumeurs de façon spécifique. Ce type de molécules représente la base pour le développement de vaccins contre le cancer puisqu?elles pourraient être injectées aux patients afin d?induire une réponse anti- tumorale. A présent, il y a très peu de molécules capables de stimuler le système immunitaire contre les tumeurs qui sont connues parce que les techniques développées à ce jour pour leur identification sont complexes et longues. Une nouvelle technique vient d?être proposée pour l?identification de ce type de molécules qui se base sur l?utilisation de librairies de peptides. Ces librairies représentent toutes les combinaisons possibles des composants de base des molécules recherchées. La première partie de cette étude a consisté à valider cette nouvelle technique en utilisant des cellules T CD8? cytolytiques capables de tuer des cellules tumorales en reconnaissant une molécule connue présente à leur surface. On a démontré que l?utilisation des librairies permet d?identifier la plupart des composants de base de la molécule reconnue par les cellules T CD8? cytolytiques utilisées. La deuxième partie de cette étude a consisté à effectuer une recherche des molécules potentiellement actives dans des protéines présentes dans des bases des données en utilisant un programme informatique qui permet de classer les molécules sur la base de leur activité biologique. Parmi des milliers de molécules de la base de données, celles reconnues par nos cellules T CD8? cytolytiques ont été trouvées parmi les plus actives. Plus intéressant encore, la combinaison de ces deux techniques nous a permis d?identifier la molécule reconnue par une population de cellules T CD8? cytolytiques ayant une activité anti-tumorale, mais pour laquelle on ne connaissait pas la spécificité. Nos résultats encouragent l?utilisation des librairies pour trouver et optimiser des molécules reconnues spécifiquement par des cellules T CD8? cytolytiques capables de tuer des tumeurs.
Resumo:
La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
La protection des données est un élément essentiel d'un Etat de droit et une société démocratique, car elle accorde à chaque individu le droit de disposer de ce qui fait partie de sa sphère privée. Actuellement en Suisse, la loi fédérale sur la protection des données (LPD) est en vigueur depuis 1993. En 2010, l'Office fédéral de la justice a supervisé une évaluation de son efficacité : il en résulte que cette dernière a été prouvée, mais tendra à diminuer fortement dans les années à suivre. Pour causes principales : l'évolution des technologies, caractérisée notamment par le développement des moyens de traitement de données toujours plus variés et conséquents, et un manque d'informations des individus par rapport à la protection des données en générale et à leurs droits. Suite à l'évaluation, cinq objectifs de révision ont été formulés par le Conseil fédéral, dont celui d'intégrer la privacy by design ou « protection de la vie privée dès la conception » dans la loi. Ce concept, qui est également repris dans les travaux européens en cours, est développé à l'origine par l'Information and Privacy Commissionner de l'Ontario (Canada), Ann Cavoukian. Le principe général de la privacy by design est que la protection de la vie privée doit être incluse dans les systèmes traitant les données lors de leur conception. Souvent évoquée comme une solution idéale, répondant au problème de l'inadéquation de la loi par la logique de prévention qu'elle promeut, la privacy by design demeure toutefois un souhait dont l'application n'est que peu analysée. Ce travail cherche justement à répondre à la question de la manière de la mettre en oeuvre dans la législation suisse. Se basant sur les textes et la doctrine juridiques et une littérature dans les domaines de l'économie, l'informatique, la politique et la sociologie des données personnelles, il propose tout d'abord une revue générale des principes et définitions des concepts-clés de la protection des données en Suisse et dans le cadre international. Puis, il propose deux possibilités d'intégration de la privacy by design : la première est une solution privée non contraignante qui consiste à promouvoir le concept et faire en sorte que les responsables de traitement décident par eux-mêmes d'intégrer la privacy by design dans leurs projets ; ce procédé est possible grâce au renforcement du processus de certification déjà en cours. La deuxième option est une solution contraignante visant à intégrer le principe directement dans la loi et de prendre les mesures pour le rendre effectif ; ce travail montre que le développement de la figure du conseiller à la protection des données permet d'atteindre cet objectif. Enfin, des considérations générales sur l'application du principe sont abordées, telles que l'influence des développements en cours dans l'Union européenne sur la Suisse par rapport à la protection des données et la limite posée par le principe de territorialité.
Resumo:
La criminologie et la police scientifique ont des origines communes mais se sont distanciées pour être finalement considérées comme séparées. Pourtant, les traces, résultat de l'action criminelle par les échanges de matière, indiquent ce qui s'est passé dans le cas particulier. Regroupées et comparées, elles émettent des signes sur l'existence de problèmes de sécurité. Une méthode fondée sur la résolution de problèmes peut ainsi intégrer naturellement la trace et constituer un socle pour un rapprochement des disciplines. Elle illustre d'une part l'importance pour la criminologie de ne pas ignorer le substrat matériel et informatique indispensable à l'explication de l'action criminelle, et pour la police scientifique de contextualiser ses informations en s'appuyant sur des théories en criminologie pour leur donner du sens. C'est l'enjeu de ce numéro spécial.
Resumo:
Le traitement de radiochirurgie par Gamma Knife (GK) est utilisé de plus en plus souvent comme une alternative à la microchirurgie conventionnelle pour le traitement des pathologies neurochirurgicales intracrâniennes. Il s'agit d'irradier en dose unique et à haute énergie, en condition stéréotaxique et à l'aide d'une imagerie multimodale (imagerie par résonance magnétique [IRM], tomodensitométrie et éventuellement artériographie). Le GK a été inventé par le neurochirurgien suédois Lars Leksell, qui a réalisé le premier ciblage du nerf trijumeau en 1951, sur la base d'une radiographie standard. Depuis, les progrès de l'informatique et de la robotique ont permis d'améliorer la technique de radiochirurgie qui s'effectue actuellement soit par accélérateur linéaire de particules monté sur un bras robotisé (Novalis®, Cyberknife®), soit par collimation de près de 192 sources fixes (GK). La principale indication radiochirurgicale dans le traitement de la douleur est la névralgie du nerf trijumeau. Les autres indications, plus rares, sont la névralgie du nerf glossopharyngien, l'algie vasculaire de la face, ainsi qu'un traitement de la douleur d'origine cancéreuse par hypophysiolyse. Gamma Knife surgery (GKS) is widely used as an alternative to open microsurgical procedures as noninvasive treatment of many intracranial conditions. It consists of delivering a single dose of high energy in stereotactic conditions, and with the help of a multimodal imaging (e.g., magnetic resonance imaging [MRI], computer tomography, and eventually angiography). The Gamma Knife (GK) was invented by the Swedish neurosurgeon Lars Leksell who was the first to treat a trigeminal neuralgia sufferer in 1951 using an orthogonal X-ray tube. Since then, the progresses made both in the field of informatics and robotics have allowed to improve the radiosurgical technique, which is currently performed either by a linear accelerator of particles mounted on a robotized arm (Novalis®, Cyberknife®), or by collimation of 192 fixed Co-60 sources (GK). The main indication of GKS in the treatment of pain is trigeminal neuralgia. The other indications, less frequent, are: glossopharyngeal neuralgia, cluster headache, and hypophysiolyse for cancer pain.
Resumo:
Ce diplôme présente les marchés prédictifs, qui sont un moyen d'agréger l'information en utilisant les processus à la base des marchés financiers et en proposant des contrats à termes représentant la probabilité de survenance d'une proposition. Des publications dans le domaine de la finance, du management ou de l'informatique font référence à l'utilisation des marchés prédictifs et démontrent les bons résultats obtenus par cette méthode. Nous nous sommes demandé s'il était possible de concevoir et utiliser un tel marché dans un milieu académique, pour prédire l'émergence de nouvelles théories et applications dans le domaine des communications mobiles. Pour supporter notre réflexion, nous avons mis en place un prototype qui devrait pouvoir nous permettre de tester le concept, d'étudier les fonctions de calcul de prix et les mécanismes d'agrégation de l'information. Pour débuter, nous présentons l'état de l'art en nous appuyant sur la littérature parue depuis 1988 lorsque l'University of Iowa a lancé sa plate-forme Iowa Electronic Market (IEM) dans le cadre de l'élection présidentielle Bush-Dukakis. Depuis, plusieurs chercheurs se sont penchés sur les marchés prédictifs comme instrument de prévision dans de nombreux domaines: politique, sport, cinéma, marketing, ... Nous allons comparer les marchés prédictifs à d'autres outils de prévision puis nous présenterons en détail les marchés prédictifs ainsi qu'un essai d'en formaliser les spécifications. Nous illustrerons alors ceci par des exemples tirés des principales plates-formes en activité pour le moment. S'ensuit une discussion sur l'orientation ludique des plates-formes actuelles et une présentation des utilisations que l'on pourrait en faire et qui apporteraient un réel bénéfice. Nous nous penchons alors sur l'analyse des besoins tant de l'expérimentateur que des utilisateurs. Cherchant des raisons à l'absence totale de telles plates-formes dans le cadre de la recherche, nous avons mené une série d'entretiens avec des professeurs de l'EPFL engagés dans la direction du projet MICS. Leurs réticences et craintes ont été prises en compte pour la définition des spécifications du prototype. Nous utilisons la méthode de (Spann and Skiera 2003) pour définir les spécifications de la plate-forme. Ces spécifications comprennent le choix du but prévisionnel, qui dans notre cas découle directement de notre proposition de recherche, des mécanismes financiers à la base des transactions, ainsi que des moyens incitatifs mis en place pour amener les utilisateurs à utiliser la plate-forme et surtout, pour amener les plus éclairés d'entre eux à transmettre leurs informations au marché. Ces spécifications débouchent sur la présentation de quatre cas d'utilisation. Notre objectif étant de développer un prototype pour y tester nos hypothèses, nous faisons un tour d'horizon des plates-formes à disposition et présentons l'architecture de ce dernier, basé sur les développements à la base d'USIFEX, qui n'est plus en activité depuis quatre ans. Le prototype utilise la souplesse de la programmation objet en se basant sur le langage Python dans sa version 2.3. Nous nous attardons ensuite sur la présentation de l'interface du prototype et des interactions avec les utilisateurs. Il faudra par la suite s'attacher à refondre l'interface pour le faire évoluer vers plus de convivialité, et nous permettre de guider l'utilisateur lors de ses sessions sur la plate-forme. Les parties théoriques et logicielles sous toit il nous reste encore à décrire les contrats et la manière de les formuler. A nouveau nous nous penchons sur les marchés actuels pour y tirer des enseignements qui pourraient nous être utiles. N'ayant malheureusement pas fait l'objet de publications, la définition des contrats est intimement liée avec les auteurs qui les rédigent. Nous tentons de tirer quelques enseignements provenant des contrats actifs sur les marchés des matières premières pour proposer un cadre nous permettant de formaliser la rédaction d'un contrat. Ne s'agissant que d'une proposition, il faudra encore tester et compléter ce cadre pour pouvoir s'assurer que la manière de rédiger les contrats n'influence pas sur la pertinence des prédictions. Finalement, nous esquissons les travaux qu'il reste à accomplir avant de pouvoir mener les premiers tests réels de la plate-forme. De la formulation des contrats à l'étude des mécanismes combinatoires d'agrégation de l'information en passant par les fonctions de fixation du prix. Nous revenons sur les travaux effectués dans le cadre de ce diplôme et présentons quelques idées de recherche futures.
Resumo:
Notre article porte sur la mise en oeuvre d'un dispositif de portfolio en ligne (ePortfolio) dans le cadre d'un Master de spécialisation ès lettres en Analyse des discours et de la communication publics. Dans le but d'améliorer la transférabilité de compétences académiques vers les contextes professionnels, l'équipe enseignante de ce Master a créé un ensemble d'activités permettant à l'étudiant de prendre conscience des compétences qu'il a développées et d'apprendre à mieux communiquer celles-ci. La démarche articule deux dimensions : réflexive et communicative. Sur le premier point, le projet se focalise sur le développement de l'attitude réflexive de l'étudiant par rapport à son apprentissage. Sur le second point, le projet se concentre sur le développement d'une aptitude à communiquer ses compétences. Vu la nature du cursus, communiquer à propos de ses compétences reflète précisément des compétences à communiquer et ce type de savoir-faire discursif représente une distinction essentielle par rapport à d'autres filières de formation en communication.
Resumo:
Le self est une notion polysémique qui fait l'objet d'un consensus relatif dans plusieurs domaines, dont la psychologie du développement. Elle rend compte de la faculté de s'éprouver le même au fil du temps et de distinguer le « je » qui regarde du « moi » regardé. C'est le garant d'un sens de soi plus ou moins cohérent au fil du temps, en dépit des changements qui surviennent au cours de la vie. Le self combine des processus de réflexivité et d'intersubjectivité. Nous en avons analysé trois composantes fonctionnelles : la mémoire de travail, la mémoire épisodique et la narration, à partir d'un protocole expérimental témoignant de son ontogenèse chez des enfants de 6 à 9 ans (n=24 répartis en deux groupes de 6‐7 et 8-9 ans). Nous avons créé le « jeu informatique du lutin » qui propose un parcours semiorienté dans un monde imaginaire. C'est une narration de soi, opérant la mise en sens des temporalités et des espaces auxquels les événements se réfèrent. Deux semaines après cette « aventure », on recueille la narration des souvenirs épisodiques de cette histoire. Nous avons également utilisé un test de mémoire de travail visuospatiale non verbale. Des différences développementales affectent les dimensions narratives de la mémoire de l'épisode du jeu, comme l'efficacité de la mémoire de travail visuospatiale. Ces développements témoignent d'une augmentation de « l'épaisseur temporelle de la conscience» entre 6 et 9 ans. L'épaisseur de la conscience renvoie fondamentalement à la faculté du self de vivre le temps dans une cyclicité incluant le passé, le présent et le futur anticipé. Le développment observé élargit les possibilités de mettre en lien des mémoires et des scénarios futurs, tout comme les mises en sens des relations aux autres et à soi-même. Self is a polysemic concept of common use in various scientific fields, among which developmental psychology. It accounts for the capacity to maintain the conviction to be « oneself », always the same through circumstances and throughout my life. This important function contributes in maintaining coherence and some sorte of Ariadne's thread in memory. To analyse the ontogeny of the self, we have focused upon three components : working memory, episodic memory and narration in children aged between 6 and 9 years. We used a non verbal working memory task. It was completed by a video game specially designed for our purpose, in which children were engaged in moving an elf in a landscape changing through seasons, in order to deliver a princess from a mischievous wizard. Two weeks after the game, the children had to tell what happened while they moved the elf. It is a self-narrative that creates a link‐up of temporality and spaces to which the events refer. The narrated episode was assessed for its coherence and continuity dimensions. Developmental differences affect the narrative dimensions of the memory of the episode of the game, as the effectiveness of visuospatial working memory. These developments show an increase in "temporal thickness of consciousness" between 6 and 9 years. The thickness of consciousness basically refers to the ability of the self to live in a cyclical time including past, present and anticipated future. The observed development broadens the possibilities to link memories and future scenarios, like setting sense of relations with others and with oneself.
Resumo:
Affiliation: Centre Robert-Cedergren de l'Université de Montréal en bio-informatique et génomique & Département de biochimie, Université de Montréal
Resumo:
Un résumé en anglais est également disponible.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit option Droit des technologies de l'information"
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"