513 resultados para utilité récursive
Resumo:
Antonin Artaud (1896-1948) est un poète, acteur, dramaturge et écrivain français né à Marseille, mais dont la vie artistique se développe principalement à Paris. Artaud est l'auteur de la notion bien connue de Théâtre de cruauté, qui inspire encore aujourd'hui de nombreux groupes de théâtre dans différents coins du monde. Il a écrit sur le théâtre, la poésie, l'art, la philosophie, entre autres. De 1924-1935 est également dédié au cinéma, à la fois dans son théorique et pratique. Une étape un peu inconnu et peu exploré dans sa vie. Elle a joué dans 22 films avec certains des réalisateurs les plus importants dans le monde, et a laissé huit scénarios, dont un seul a été realizé, et huit écrits théoriques sur le cinéma. Cette thèse cherche à examiner précisément cette période insuffisamment étudié dans sa carrière, à partir de trois questions initiales: Artaud développé un sens de la cruauté au-delà du théâtre? Nous pouvons penser à la culture de la cruauté envers les films, en d‘autres termes, un cinéma de la cruauté ? Nous pouvons penser sur le sujet contemporain de cette culture? La réponse à ces trois questions est oui. L'idée de la pensée de la cruauté au cinéma est intervenue concomitamment à leurs expériences et élaborations de ce qu'il a appelé Théâtre de la cruauté. Les deux réflexions sont donnés concomitamment et de manière récursive. Plus que cela, toutes ses productions artistiques, dont la poésie et la peinture, ont été traversés par la notion de cruauté. Nous concluons que leurs élaborations sur un cinéma de la cruauté a eté interrompu au moment même que le développement technique a souligné la possibilité de sa réalisation. De plus, à l'enquête de son travail, nous pouvons voir que presque toute sa pensée a été préparé sous les images, de sorte que nous pouvons même parler d'une pensée cinématographique d‘Antonin Artaud. En conséquence, nous ne concevons pas sa théorie au septième art comme secondaire à leurs intérêts, comme le rapporte la plupart de ses commentateurs, mais absolument essentiel dans le développement de ses écrits, qui jusqu'à maintenant accumulé plus de deux mille pages. En outre, Artaud ne pense pas l'art pour l'art, mais seulement comme un dialogue fructueux et intensif avec l'homme et la culture. L‘art était l'instrument privilégié de proposer un diagnostic et une nouvelle façon de voir la société contemporaine. À travers le film il a imaginé la possibilité d'une reprise de forces éthico-esthétique-politiques perdus sous les décombres de la civilisation occidentale. L'établissement d'une nouvelle relation avec l'image, le sujet de la (post-) modernité pourrait sauver une puissance esthétique du corps et de la pensée que, réinterprété, agiraient envers eux-mêmes et le monde à réinventer.
Resumo:
La population canadienne-française a une histoire démographique unique faisant d’elle une population d’intérêt pour l’épidémiologie et la génétique. Cette thèse vise à mettre en valeur les caractéristiques de la population québécoise qui peuvent être utilisées afin d’améliorer la conception et l’analyse d’études d’épidémiologie génétique. Dans un premier temps, nous profitons de la présence d’information généalogique détaillée concernant les Canadiens français pour estimer leur degré d’apparentement et le comparer au degré d’apparentement génétique. L’apparentement génétique calculé à partir du partage génétique identique par ascendance est corrélé à l’apparentement généalogique, ce qui démontre l'utilité de la détection des segments identiques par ascendance pour capturer l’apparentement complexe, impliquant entre autres de la consanguinité. Les conclusions de cette première étude pourront guider l'interprétation des résultats dans d’autres populations ne disposant pas d’information généalogique. Dans un deuxième temps, afin de tirer profit pleinement du potentiel des généalogies canadienne-françaises profondes, bien conservées et quasi complètes, nous présentons le package R GENLIB, développé pour étudier de grands ensembles de données généalogiques. Nous étudions également le partage identique par ascendance à l’aide de simulations et nous mettons en évidence le fait que la structure des populations régionales peut faciliter l'identification de fondateurs importants, qui auraient pu introduire des mutations pathologiques, ce qui ouvre la porte à la prévention et au dépistage de maladies héréditaires liées à certains fondateurs. Finalement, puisque nous savons que les Canadiens français ont accumulé des segments homozygotes, à cause de la présence de consanguinité lointaine, nous estimons la consanguinité chez les individus canadiens-français et nous étudions son impact sur plusieurs traits de santé. Nous montrons comment la dépression endogamique influence des traits complexes tels que la grandeur et des traits hématologiques. Nos résultats ne sont que quelques exemples de ce que nous pouvons apprendre de la population canadienne-française. Ils nous aideront à mieux comprendre les caractéristiques des autres populations de même qu’ils pourront aider la recherche en épidémiologie génétique au sein de la population canadienne-française.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
La population canadienne-française a une histoire démographique unique faisant d’elle une population d’intérêt pour l’épidémiologie et la génétique. Cette thèse vise à mettre en valeur les caractéristiques de la population québécoise qui peuvent être utilisées afin d’améliorer la conception et l’analyse d’études d’épidémiologie génétique. Dans un premier temps, nous profitons de la présence d’information généalogique détaillée concernant les Canadiens français pour estimer leur degré d’apparentement et le comparer au degré d’apparentement génétique. L’apparentement génétique calculé à partir du partage génétique identique par ascendance est corrélé à l’apparentement généalogique, ce qui démontre l'utilité de la détection des segments identiques par ascendance pour capturer l’apparentement complexe, impliquant entre autres de la consanguinité. Les conclusions de cette première étude pourront guider l'interprétation des résultats dans d’autres populations ne disposant pas d’information généalogique. Dans un deuxième temps, afin de tirer profit pleinement du potentiel des généalogies canadienne-françaises profondes, bien conservées et quasi complètes, nous présentons le package R GENLIB, développé pour étudier de grands ensembles de données généalogiques. Nous étudions également le partage identique par ascendance à l’aide de simulations et nous mettons en évidence le fait que la structure des populations régionales peut faciliter l'identification de fondateurs importants, qui auraient pu introduire des mutations pathologiques, ce qui ouvre la porte à la prévention et au dépistage de maladies héréditaires liées à certains fondateurs. Finalement, puisque nous savons que les Canadiens français ont accumulé des segments homozygotes, à cause de la présence de consanguinité lointaine, nous estimons la consanguinité chez les individus canadiens-français et nous étudions son impact sur plusieurs traits de santé. Nous montrons comment la dépression endogamique influence des traits complexes tels que la grandeur et des traits hématologiques. Nos résultats ne sont que quelques exemples de ce que nous pouvons apprendre de la population canadienne-française. Ils nous aideront à mieux comprendre les caractéristiques des autres populations de même qu’ils pourront aider la recherche en épidémiologie génétique au sein de la population canadienne-française.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Contexte: La douleur chronique non cancéreuse (DCNC) génère des retombées économiques et sociétales importantes. L’identification des patients à risque élevé d’être de grands utilisateurs de soins de santé pourrait être d’une grande utilité; en améliorant leur prise en charge, il serait éventuellement possible de réduire leurs coûts de soins de santé. Objectif: Identifier les facteurs prédictifs bio-psycho-sociaux des grands utilisateurs de soins de santé chez les patients souffrant de DCNC et suivis en soins de première ligne. Méthodologie: Des patients souffrant d’une DCNC modérée à sévère depuis au moins six mois et bénéficiant une ordonnance valide d’un analgésique par un médecin de famille ont été recrutés dans des pharmacies communautaires du territoire du Réseau universitaire intégré de santé (RUIS), de l’Université de Montréal entre Mai 2009 et Janvier 2010. Ce dernier est composé des six régions suivantes : Mauricie et centre du Québec, Laval, Montréal, Laurentides, Lanaudière et Montérégie. Les caractéristiques bio-psycho-sociales des participants ont été documentées à l’aide d’un questionnaire écrit et d’une entrevue téléphonique au moment du recrutement. Les coûts directs de santé ont été estimés à partir des soins et des services de santé reçus au cours de l’année précédant et suivant le recrutement et identifiés à partir de la base de données de la Régie d’Assurance maladie du Québec, RAMQ (assureur publique de la province du Québec). Ces coûts incluaient ceux des hospitalisations reliées à la douleur, des visites à l’urgence, des soins ambulatoires et de la médication prescrite pour le traitement de la douleur et la gestion des effets secondaires des analgésiques. Les grands utilisateurs des soins de santé ont été définis comme étant ceux faisant partie du quartile le plus élevé de coûts directs annuels en soins de santé dans l’année suivant le recrutement. Des modèles de régression logistique multivariés et le critère d’information d’Akaike ont permis d’identifier les facteurs prédictifs des coûts directs élevés en soins de santé. Résultats: Le coût direct annuel médian en soins de santé chez les grands utilisateurs de soins de santé (63 patients) était de 7 627 CAD et de 1 554 CAD pour les utilisateurs réguliers (188 patients). Le modèle prédictif final du risque d’être un grand utilisateur de soins de santé incluait la douleur localisée au niveau des membres inférieurs (OR = 3,03; 95% CI: 1,20 - 7,65), la réduction de la capacité fonctionnelle liée à la douleur (OR = 1,24; 95% CI: 1,03 - 1,48) et les coûts directs en soins de santé dans l’année précédente (OR = 17,67; 95% CI: 7,90 - 39,48). Les variables «sexe», «comorbidité», «dépression» et «attitude envers la guérison médicale» étaient également retenues dans le modèle prédictif final. Conclusion: Les patients souffrant d’une DCNC au niveau des membres inférieurs et présentant une détérioration de la capacité fonctionnelle liée à la douleur comptent parmi ceux les plus susceptibles d’être de grands utilisateurs de soins et de services. Le coût direct en soins de santé dans l’année précédente était également un facteur prédictif important. Améliorer la prise en charge chez cette catégorie de patients pourrait influencer favorablement leur état de santé et par conséquent les coûts assumés par le système de santé.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
La notion de chez-soi est porteuse d’un imaginaire foisonnant et génère un grand intérêt dans notre culture et société. Bien qu’elle soit une considération importante pour la plupart d’entre nous, l’architecte occupe une position privilégiée qui lui permette d’agir sur le chez-soi de manière significative et tangible. La présente recherche explore le concept du chez-soi tel qu’étudié par les architectes et non-architectes de manière à comprendre son impact sur la création du lieu et sur la construction des environnements domestiques en Amérique du nord. Un regard porté sur les connotations entre espace et lieu, à travers la temporalité, les comportements et les perspectives sociales, supporte l’épistémologie du chez-soi comme un élément important des théories et pratiques de design contemporain. Le démantèlement hypothétique d’un espace en ses composantes suppose que les dispositifs architecturaux peuvent être modelés de manière à ce qu’ils opèrent un transfert depuis la maison, en tant qu’élément physique, vers le domaine psychologique du chez-soi. Afin d’élargir la maniabilité des éléments constitutifs du bâtiment et de son environnement, six thèmes sont appliqués à trois champs de données. Les six thèmes, qui incluent l’entre-deux, la limite, la voie, le nœud, le détail et la représentation, illustrent des moments architecturaux déterminants, potentiellement présents à l’intérieur et à l’extérieur du projet domestique et qui transforment les comportements physiques et psychiques. Depuis la pratique normalisée du logement social et abordable au Canada, une analyse de photographies de maisons abordables existantes, du discours critique sur cette typologie et de projets de recherche-création conduits par des étudiants en architecture, révèle le caractère opérationnel de la notion de chez-soi et consolide les valeurs de communauté et de frontière. L’objectif premier de la recherche est d’avancer la production de connaissances en architecture par l’exploration de la notion de chezsoi dans l’enseignement, la recherche et le design. L’approche fonctionnaliste vis-à-vis le < penser > en design, place l’usager au centre de l’environnement domestique, soutient la proposition que le chezsoi donne sens et utilité au logement, et renforce la responsabilité éthique de l’architecte à faire de cette notion une partie intégrante de la réalité quotidienne.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Environ 90% des composés produits industriellement sont fabriqués à l’aide de catalyseurs. C’est pourquoi la conception de catalyseurs toujours plus performants pour améliorer les procédés industriels actuels est toujours d’intérêt. De la grande variété de complexes avec des métaux de transition rapportés jusqu’à présent, les complexes zwitterioniques attirent notre attention par leurs activités catalytiques souvent supérieures aux complexes cationiques normaux. Un complexe métallique zwitterionique est un fragment métal-ligand neutre où la charge positive est située sur le centre métallique et où la charge négative est délocalisée sur un des ligands liés au métal. Nous proposons la synthèse de ligands anioniques phosphine comportant des groupements borates et boratabenzènes. Cette dernière espèce est un cycle à 6 membres où l’un des atomes de carbone est remplacé par un atome de bore et qui est négativement chargé. La capacité de ces phosphines anioniques à se lier à un centre métallique à l’aide de la paire libre du phosphore est due à la nature du lien P-B qui défavorise l’interaction entre la paire libre du phosphore et l’orbitale p vide du bore. Les propriétés de di-tert-butylphosphido-boratabenzène (DTBB) comme ligand phosphine anionique hautement donneur et encombré ainsi que la découverte de ses modes de coordination inhabituels pour stabiliser les métaux de transition insaturés ont été étudiés au cours de ce travail. De nouvelles perspectives sur les modes de coordination de phosphido-boratabenzène et la force de l’interaction du lien P-B seront discutées ainsi que les applications catalytiques. Nous avons d’abord étudié la coordination η1 avec des complexes de fer, ce qui nous a fourni des données quantitatives précieuses sur la capacité du DTBB d’agir comme ligand très donneur par rapport aux autres ligands donneurs bien connus. La capacité du DTBB à changer de mode de coordination pour soutenir les besoins électroniques du métal a été démontrée par la découverte d’une nouvelle espèce ferrocenyl phosphido-boratabenzène et sa nucléophilie a été étudiée. Au meilleur de notre connaissance, aucun exemple d’un ligand boratabenzène coordonné aux métaux du groupe 11 n’existe dans la littérature. Voilà pourquoi nous avons décidé d’explorer les modes de coordination du ligand DTBB avec Cu(I), Ag(I) et Au(I). A notre grande surprise, le ligand DTBB est capable de stabiliser les métaux du groupe 11 aux états d’oxydation faibles par une liaison MP qui est une coordination du type η1, un mode de coordination guère observé pour les ligands boratabenzène. Pendant nos travaux, notre attention s’est tournée vers la synthèse d’un complexe de rhodium(I) afin de tester son utilité en catalyse. A notre grande satisfaction, le complexe Rh-DTBB agit comme un précatalyseur pour l’hydrogénation des alcènes et alcynes à la température ambiante et à pression atmosphérique et son activité est comparable à celle du catalyseur de Wilkinson. Dans un désir d’élargir les applications de notre recherche, notre attention se tourna vers l’utilisation des composés du bore autres que le boratabenzène. Nous avons décidé de synthétiser une nouvelle espèce phosphido-borate encombrée. Lorsqu’elle réagit avec des métaux, l’espèce phosphido-borate subit un clivage de la liaison P-B. Toutefois, cette observation met en évidence la singularité et les avantages de la stabilité de la liaison P-B lors de l’utilisation du fragment boratabenzène. Ces observations enrichissent notre compréhension des conditions dans lesquelles la liaison P-B du ligand DTBB peut être clivée. Ces travaux ont mené à la découverte d’un nouveau ligand ansa-boratabenzène avec une chimie de coordination prometteuse.
Resumo:
“La Business Intelligence per il monitoraggio delle vendite: il caso Ducati Motor Holding”. L’obiettivo di questa tesi è quello di illustrare cos’è la Business Intelligence e di mostrare i cambiamenti verificatisi in Ducati Motor Holding, in seguito alla sua adozione, in termini di realizzazione di report e dashboard per il monitoraggio delle vendite. L’elaborato inizia con una panoramica generale sulla storia e gli utilizzi della Business Intelligence nella quale vengono toccati i principali fondamenti teorici: Data Warehouse, data mining, analisi what-if, rappresentazione multidimensionale dei dati, costruzione del team di BI eccetera. Si proseguirà mediante un focus sui Big Data convogliando l’attenzione sul loro utilizzo e utilità nel settore dell’automotive (inteso nella sua accezione più generica e cioè non solo come mercato delle auto, ma anche delle moto), portando in questo modo ad un naturale collegamento con la realtà Ducati. Si apre così una breve overview sull’azienda descrivendone la storia, la struttura commerciale attraverso la quale vengono gestite le vendite e la gamma dei prodotti. Dal quarto capitolo si entra nel vivo dell’argomento: la Business Intelligence in Ducati. Si inizia descrivendo le fasi che hanno fino ad ora caratterizzato il progetto di Business Analytics (il cui obiettivo è per l'appunto introdurre la BI i azienda) per poi concentrarsi, a livello prima teorico e poi pratico, sul reporting sales e cioè sulla reportistica basata sul monitoraggio delle vendite.
Resumo:
«Apriamo il Parco dei motori. Solo così Imola e Bologna vivono» Con queste parole, perentorie, il Direttore dell’ ANCE Bologna Carmine Preziosi ha presentato alla stampa nel settembre del 2013 l’idea della quale questa tesi fa parte integrante. Mai si è riusciti davvero a sfruttare a livello continuo e deciso la nomea di “terra dei motori” che l’Emilia Romagna possiede. Quale migliore luogo di Imola, con il suo storico tracciato, per tentare di rilanciare il turismo e creare un nuovo polo attrattivo tra la costa Adriatica e le grandi città della Regione base di tante case automobilistiche? L’individuazione dell’area tramite dialoghi con interlocutori REALMENTE interessati, approfondimenti, studi sociali, del territorio, dell’ambiente, normativi hanno portato alla progettazione urbanistica e di dettaglio (parco tematico compreso in tutti i suoi aspetti fondamentali grazie al rapporto con alcune delle più grandi aziende del mondo del settore) di un lavoro che si presenta finito per essere presentato alle autorità locali per una seria e decisa discussione a riguardo della fattibilità. Tale progetto creerebbe un’area di turismo e di utilità per la collettività del luogo, presentando, oltre al parco e al suo resort, un centro commerciale, un parco verde attrezzato e una futura area di espansione ad uso del Comune, il tutto in una zona adiacente all’ autostrada e ben collegata alla città stessa nonché alle principali vie di comunicazione.
Resumo:
Le nématode doré, Globodera rostochiensis, est un nématode phytoparasite qui peut infecter des plantes agricoles telles la pomme de terre, la tomate et l’aubergine. En raison des pertes de rendement considérables associées à cet organisme, il est justifiable de quarantaine dans plusieurs pays, dont le Canada. Les kystes du nématode doré protègent les œufs qu’ils contiennent, leur permettant de survivre (en état de dormance) jusqu’à 20 ans dans le sol. L’éclosion des œufs n’aura lieu qu’en présence d’exsudats racinaires d’une plante hôte compatible à proximité. Malheureusement, très peu de connaissances sont disponibles sur les mécanismes moléculaires liés à cette étape-clé du cycle vital du nématode doré. Dans cet ouvrage, nous avons utilisé la technique RNA-seq pour séquencer tous les ARNm d’un échantillon de kystes du nématode doré afin d’assembler un transcriptome de novo (sans référence) et d’identifier des gènes jouant un rôle dans les mécanismes de survie et d’éclosion. Cette méthode nous a permis de constater que les processus d’éclosion et de parasitisme sont étroitement reliés. Plusieurs effecteurs impliqués dans le mouvement vers la plante hôte et la pénétration de la racine sont induits dès que le kyste est hydraté (avant même le déclenchement de l’éclosion). Avec l’aide du génome de référence du nématode doré, nous avons pu constater que la majorité des transcrits du transcriptome ne provenaient pas du nématode doré. En effet, les kystes échantillonnés au champ peuvent contenir des contaminants (bactéries, champignons, etc.) sur leur paroi et même à l’intérieur du kyste. Ces contaminants seront donc séquencés et assemblés avec le transcriptome de novo. Ces transcrits augmentent la taille du transcriptome et induisent des erreurs lors des analyses post-assemblages. Les méthodes de décontamination actuelles utilisent des alignements sur des bases de données d’organismes connus pour identifier ces séquences provenant de contaminants. Ces méthodes sont efficaces lorsque le ou les contaminants sont connus (possède un génome de référence) comme la contamination humaine. Par contre, lorsque le ou les contaminants sont inconnus, ces méthodes deviennent insuffisantes pour produire un transcriptome décontaminé de qualité. Nous avons donc conçu une méthode qui utilise un algorithme de regroupement hiérarchique des séquences. Cette méthode produit, de façon récursive, des sous-groupes de séquences homogènes en fonction des patrons fréquents présents dans les séquences. Une fois les groupes créés, ils sont étiquetés comme contaminants ou non en fonction des résultats d’alignements du sous-groupe. Les séquences ambiguës ayant aucun ou plusieurs alignements différents sont donc facilement classées en fonction de l’étiquette de leur groupe. Notre méthode a été efficace pour décontaminer le transcriptome du nématode doré ainsi que d’autres cas de contamination. Cette méthode fonctionne pour décontaminer un transcriptome, mais nous avons aussi démontré qu’elle a le potentiel de décontaminer de courtes séquences brutes. Décontaminer directement les séquences brutes serait la méthode de décontamination optimale, car elle minimiserait les erreurs d’assemblage.