981 resultados para SLA-Technologie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, les technologies sans fil ont connu un essor fulgurant. Elles ont permis la mise en place de réseaux sans fil à hautes performances. Les réseaux maillées sans fil (RMSF) sont une nouvelle génération de réseaux sans fil qui offrent des débits élevés par rapport aux réseaux Wi-Fi (Wireless Fidelity) classiques et aux réseaux ad-hoc. Ils présentent de nombreux avantages telles que leur forte tolérance aux pannes, leur robustesse, leur faible coût etc. Les routeurs des RMSF peuvent disposer de plusieurs interfaces radio et chaque interface peut opérer sur plusieurs canaux distincts, c’est des RMSF multiples-radios, multiples-canaux. Ce type de réseau peut accroître de manière considérable les performances des RMSF. Cependant plusieurs problèmes subsistent et doivent être résolus notamment celui du routage. Le routage dans les RMSF demeure un défi majeur. Le but des protocoles de routage est de trouver les meilleures routes i.e. des routes qui maximisent les débits et minimisent les délais, lors de l’acheminement du trafic. La qualité des routes dans les RMSF peut être fortement affectée par les interférences, les collisions, les congestions etc. Alors les protocoles doivent être en mesure de détecter ces problèmes pour pouvoir en tenir compte lors de la sélection des routes. Plusieurs études ont été dédiées aux métriques et aux protocoles de routage dans les RMSF afin de maximiser les performances de celles ci. Mais la plupart ne prennent pas en considération toutes les contraintes telles que les interférences, le problème des stations cachées etc. Ce mémoire propose une nouvelle métrique de routage pour RMSF. Nous avons mis en place une nouvelle métrique de routage pour RMSF appelée MBP (Metric Based on Probabilities). Cette métrique est destinée aux RMSF mono-radio ou multiples-radios. Elle permet d’éviter les routes à forte ii interférence. Les résultats des simulations ont montré que MBP présente des améliorations par rapport à certaines métriques : ETT, WCETT et iAWARE qui sont connues dans le domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tumeur des cellules de la granulosa (GCT) représente 5% des cas de cancers ovariens chez la femme. Bien que considérées comme peu malignes, la mort survient dans 80% des cas suite à une recrudescence de la maladie. En dépit de ces statistiques sinistres, peu d’études ont été portées sur ce type de cancer. Le premier objectif de cette étude consistait à élucider les mécanismes moléculaires causant les GCT en démontrant l’implication de la voie de signalisation PI3K/AKT dans leur étiologie. Pour ce faire, nous avons employé la technologie Cre-Lox afin de cibler le gène Pten (antagoniste de cette voie) spécifiquement dans les cellules de la granulosa chez la souris. Ces souris (Ptenflox/flox;Amhr2cre/+) ont occasionnellement développé des GCT, soutenant notre hypothèse de l’importance de la voie PI3K/AKT dans leur étiologie. La voie WNT/CTNNB1 est une autre voie de signalisation qui a récemment été impliquée dans le développement des GCT. Dans le cadre de ce projet, nous avons également testé l’existence possible d’une synergie fonctionnelle entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la maladie. Pour ce faire, nous avons créé le modèle transgénique Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+, chez lequel les cellules de la granulosa présentant non seulement une désinhibition de la voie PI3K/AKT, mais aussi une suractivation de la voie WNT/CTNNB1. Tel que prédit, les souris Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+ ont développé une forme de GCT beaucoup plus agressive que celle observée chez les femelles Ptenflox/flox;Amhr2cre/+. Spécifiquement, le développement des tumeurs se déclenchait plus tôt, leur croissance était beaucoup plus rapide, nous avons pu observer des métastases pulmonaires et la dissémination des cellules tumorales dans la cavité péritonéale, et la maladie était invariablement fatale avant l’âge de 8 semaines. Le modèle Ptenflox/flox;Ctnnb1flox (ex3)/+;Amhr2cre/+ a donc servi à démontrer l'existence d'une synergie entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la GCT. De façon inattendue, les souris Ptenflox/flox;Amhr2cre/+ ont aussi présenté un phénotype de sous-fertilité qui n’était pas d’origine ovarienne. Il a récemment été démontré que la souche Amhr2cre dirige l’expression de Cre non seulement aux cellules de la granulosa, mais aussi au stroma utérin et au myomètre. Le second objectif de ce travail était donc de démontrer si et comment le phénotype d’infertilité chez les souris Ptenflox/flox;Amhr2cre/+ pouvait découler d’un défaut utérin. Lors de l'implantation, les cellules du stroma utérin se différencient en cellules déciduelles pour former la décidua maternelle (DM), qui se régresse ensuite par apoptose afin de faciliter l’invasion des cellules trophoblastiques. De plus, la DM, en collaboration avec le tissu foetal, recrute des uNKs dont le rôle est de remodeler les artères spiralées pour augmenter l’apport sanguin maternel vers le foetus en développement. Nous avons pu démontrer que l'utérus des femelles gestantes Ptenflox/flox;Amhr2cre/+ présentait une DM anormalement résistante à l'apoptose, moins de uNKs et des artères spiralées non-remodelées. Par conséquent, l’invasion des cellules du trophoblaste était restreinte, compromettant le développement et la survie de l'embryon. Nous avons donc établi pour la première fois l’importance de Pten lors de la décidualisation et de l’invasion du trophoblaste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but du présent projet de thèse est d’étudier le lien entre les habitudes à l’endroit des technologies de l’information et de la communication (TIC) et la motivation à apprendre. Bien que l’utilisation de l’ordinateur en contexte scolaire ait été étudiée en profondeur au cours des dernières années, la majorité des études présentent la même perspective : elles examinent l’effet de l’utilisation des technologies à l’école sur le rendement et la motivation scolaire des élèves. Cependant, on connaît mal l’effet de l’utilisation des technologies à des fins personnelles sur le vécu scolaire. Il apparait que les élèves n’ont pas tous les mêmes opportunités en ce qui a trait à l’utilisation des TIC et n’acquièrent donc pas tous les mêmes compétences dans ce domaine. Quelques recherches se sont intéressées aux effets de l’ordinateur (sa présence et son utilisation à la maison) sur le rendement à l’école. Bien qu’en majorité, les auteurs s’entendent sur les bénéfices que pourrait générer l’ordinateur, ils restent prudents sur les rapports de cause à effet (Beltran, Das et Fairlie, 2008; OCDE, 2006). Nous avons voulu aborder la question différemment : déterminer les possibles liens entre les habitudes d’utilisation de l’ordinateur à des fins personnelles et la motivation à apprendre à l’école. À cet égard, la motivation pour les sciences a été retenue puisque cette matière scolaire fait souvent appel à des compétences associées à l’utilisation des TIC. Pour répondre à nos objectifs, 331 élèves du cours ordinaire de sciences et technologie au premier cycle du secondaire ont remplis un questionnaire autorapporté, composé de sept échelles motivationnelles et d’un questionnaire lié à l’utilisation des TIC. Nous avons d’abord dégagé des profils d’utilisateurs à partir des différentes utilisations de l’ordinateur. Ensuite, nous avons examiné ces profils en lien avec leurs caractéristiques motivationnelles (le sentiment de compétence, l’anxiété, l’intérêt et les buts d’accomplissement) et l’engagement pour le cours de sciences. Finalement, nous avons déterminé la valeur prédictive de l’utilisation de l’ordinateur sur les variables motivationnelles retenues. Nos résultats montrent que l’utilisation personnelle des TIC ne se fait pas nécessairement au détriment de l’école. Nous avons trouvé que les élèves qui utilisent davantage les TIC dans leurs temps libres, et ce, avec des utilisations diversifiées, ont des caractéristiques motivationnelles plus positives. Toutefois, nous constatons que le type d’usage est lié à un effet médiateur positif ou négatif sur la motivation à apprendre. Les élèves qui limitent leurs utilisations de l’ordinateur à la communication et aux jeux ont des caractéristiques motivationnelles plus négatives que ceux avec des utilisations variées. Les usages centrés sur la communication semblent être ceux qui sont le plus susceptibles d’être liés négativement à la motivation à apprendre alors que ceux orientés vers les usages à caractère intellectuel s’avèrent plus positifs. Les résultats suggèrent que la clé ne réside pas dans le temps d'utilisation mais plutôt dans l'utilisation judicieuse de ce temps. En favorisant des usages à caractère intellectuel, tout en laissant des temps libres aux jeunes, nous augmentons leurs chances de développer de bonnes habitudes technologiques qui seront essentielles dans la société de demain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis que l'animal humain a conçu un système de technologies pour la pensée abstraite grâce au langage, la guerre contre le monde sauvage est devenu une voie à sens unique vers l'aliénation, la civilisation et la littérature. Le but de ce travail est d'analyser comment les récits civilisationnels donnent une structure à l'expérience par le biais de la ségrégation, de la domestication, de la sélection, et de l'extermination, tandis que les récits sauvages démontrent les possibilités infinies du chaos pour découvrir le monde en toute sa diversité et en lien avec sa communauté de vie. Un des objectifs de cette thèse a été de combler le fossé entre la science et la littérature, et d'examiner l'interdépendance de la fiction et la réalité. Un autre objectif a été de mettre ces récits au cœur d'un dialogue les uns avec les autres, ainsi que de tracer leur expression dans les différentes disciplines et œuvres pour enfants et adultes mais également d’analyser leur manifestations c’est redondant dans la vie réelle. C'est un effort multi-disciplinaires qui se reflète dans la combinaison de méthodes de recherche en anthropologie et en études littéraires. Cette analyse compare et contraste trois livres de fiction pour enfants qui présentent trois différents paradigmes socio-économiques, à savoir, «Winnie-l'Ourson» de Milne qui met en place un monde civilisé monarcho-capitaliste, la trilogie de Nosov sur «les aventures de Neznaika et ses amis» qui présente les défis et les exploits d'une société anarcho-socialiste dans son évolution du primitivisme vers la technologie, et les livres de Moomines de Jansson, qui représentent le chaos, l'anarchie, et l'état sauvage qui contient tout, y compris des épisodes de civilisation. En axant la méthodologie de ma recherche sur la façon dont nous connaissons le monde, j'ai d'abord examiné la construction, la transmission et l'acquisition des connaissances, en particulier à travers la théorie de praxis de Bourdieu et la critique de la civilisation développée dans les études de Zerzan, Ong, et Goody sur les liens entre l'alphabétisation, la dette et l'oppression. Quant à la littérature pour enfants, j'ai choisi trois livres que j’ai connus pendant mon enfance, c'est-à-dire des livres qui sont devenus comme une «langue maternelle» pour moi. En ce sens, ce travail est aussi de «l’anthropologie du champ natif». En outre, j’analyse les prémisses sous-jacentes qui se trouvent non seulement dans les trois livres, mais dans le déroulement des récits de l'état sauvage et de la civilisation dans la vie réelle, des analyses qui paraissent dans cette thèse sous la forme d'extraits d’un journal ethnographique. De même que j’examine la nature de la littérature ainsi que des structures civilisées qui domestiquent le monde au moyen de menaces de mort, je trace aussi la présence de ces récits dans l'expression scientifique (le récit malthusien-darwinien), religieuse, et dans autres expressions culturelles, et réfléchis sur les défis présentés par la théorie anarchiste (Kropotkine) ainsi que par les livres pour enfants écrits du point de vue sauvage, tels que ceux des Moomines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif. Étudier les comportements alimentaires des enfants utilisateurs de boîte à lunch tels que décrits par les mères, en s’inspirant des descripteurs de comportements alimentaires de Jean-Pierre Poulain. Méthodes. Des entrevues individuelles et de groupes eurent lieu avec 18 mères. Une analyse de données qualitatives a été réalisée en utilisant les dimensions de Poulain comme cadre de référence. Une considération additionnelle fut intégrée dans l’analyse, celle de la dimension matérielle de la boîte à lunch. Résultats. Dimension spatiale : Les repas ont lieu dans des classes ou dans de grandes salles communes. Dimension temporelle : Le moment et la durée de la consommation du repas varient selon différents facteurs. Le moment de préparation de la boîte est aussi d’intérêt. Environnement social : Les pairs et les médias ont une grande influence dans les comportements liés à la boîte à lunch. Logique de choix : La mère est le principal décideur et acteur à l’égard du contenu. Structure de la prise : Les mères précisent des contenus associés aux repas de la veille ou des mets froids. Des desserts et des à-côtés accompagnent le repas principal. L’étude de la dimension matérielle de la boîte révèle que la facilité d’entretien est le principal critère de choix des boîtes alors que l’apparence visuelle est celui de l’enfant. L’écologie devient de plus en plus une priorité. Conclusion. Cette nouvelle approche pour l’étude des comportements alimentaires du jeune utilisateur de boîte à lunch fournit aux intervenants une autre perspective selon laquelle étudier cette activité quotidienne et/ou élaborer des projets promotionnels en santé publique.