991 resultados para Technologie numérique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La crise du logement est généralement appréhendée comme une simple disparité entre une disponibilité de logements abordables et les besoins de la population. Ce mémoire a pour objectif de dépasser ce raisonnement en s’interrogeant sur l’adéquation entre la conception des logements publics et les besoins des populations ciblées, qui sont déterminés par les spécificités socioculturelles en évolutions complexes et dynamiques. Des logements sociaux d’une grandeur inadéquate, pour des considérations de rentabilité, entraînant l’apparition d’une surpopulation, ne pouvaient qu’engendrer leur détérioration rapide et leur bidonvilisation. Ce mémoire aborde donc le thème anthropologique de l’influence de l’organisation de l’habitat et des espaces de vies privées et collectives sur les sociétés humaines. Le cas particulier de l’Algérie est intéressant par sa virulence et par l’importation des politiques françaises au moment de la colonisation, politiques visant l’assimilation des Algériens aux habitudes de consommation et aux modes de comportement occidentaux. Ce mémoire tente de démontrer que les différents gouvernements issus de l’indépendance auront réactivé les politiques coloniales en matière d’urbanisme. De plus, l’augmentation de la fréquence des pratiques informelles de captation à la source des biens stratégiques rares à des fins spéculatives, dont les logements sociaux, accélérée par la libéralisation du marché immobilier et la privatisation des logements publics, a fait en sorte que très peu de logements sociaux furent attribués aux familles qui en avaient besoin qui se retrouvèrent donc de plus en plus marginalisées et devaient à leur tour se tourner vers des pratiques informelles pour espérer améliorer leurs conditions de logement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vidéos et images des résultats disponible à : http://www.iro.umontreal.ca/labs/infographie/theses/fatnasss/

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous proposons une approche semi-automatique pour la rétro-ingénierie des diagrammes de séquence d’UML. Notre approche commence par un ensemble de traces d'exécution qui sont automatiquement alignées pour déterminer le comportement commun du système. Les diagrammes de séquence sont ensuite extraits avec l’aide d’une visualisation interactive, qui permet la navigation dans les traces d'exécution et la production des opérations d'extraction. Nous fournissons une illustration concrète de notre approche avec une étude de cas, et nous montrons en particulier que nos diagrammes de séquence générés sont plus significatifs et plus compacts que ceux qui sont obtenus par les méthodes automatisées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La séquence culturelle régionale de l’Archaïque supérieur et terminal de la vallée de l’Outaouais n’est pas complétée, mais les variations stylistiques, technologiques et fonctionnelles des artéfacts sur le plan régional et local facilitent le découpage culturel. La reconstruction de la chaîne opératoire des haches, des herminettes et des gouges en pierre polie des sites Muldoon et Lamoureux, deux sites du sud-est ontarien, pourrait permettre de déceler une tradition technologique régionale à cheval entre l’Archaïque laurentien, l’Archaïque post-laurentien et d’autres courants des Grands Lacs. L’analyse des haches, des herminettes et des gouges des sites Muldoon et Lamoureux démontre l’utilisation massive de l’amphibolite. La moitié distale de ces outils est surtout polie et finement abrasée et la moitié proximale souvent éclatée, mais parfois abrasée. Ces éléments technologiques et l’industrie de pierre taillée démontrent des ressemblances et des différences avec les sites laurentiens de la région, et certains sites post-laurentiens du Québec et de l’Ontario méridional. Le matériel en pierre polie des sites Muldoon et Lamoureux démontre des liens technologiques vers l’Ouest tout en gardant un contact avec la sphère d’interaction postlaurentienne. La vallée de l’Outaouais semble alors prendre une place indépendante dans l’Archaïque supérieur, certaines continuités technologiques s’observent entre l’Archaïque laurentien et l’Archaïque post-laurentien.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les avancées en biotechnologie ont permis l’identification d’un grand nombre de mécanismes moléculaires, soulignant également la complexité de la régulation génique. Néanmoins, avoir une vision globale de l’homéostasie cellulaire, nous est pour l’instant inaccessible et nous ne sommes en mesure que d’en avoir qu’une vue fractionnée. Étant donné l’avancement des connaissances des dysfonctionnements moléculaires observés dans les maladies génétiques telles que la fibrose kystique, il est encore difficile de produire des thérapies efficaces. La fibrose kystique est causée par la mutation de gène CFTR (cystic fibrosis transmembrane conductance regulator), qui code pour un canal chlorique transmembranaire. La mutation la plus fréquente (ΔF508) induit un repliement incorrect de la protéine et sa rétention dans le réticulum endoplasmique. L’absence de CFTR fonctionnel à la membrane a un impact sur l’homéostasie ionique et sur l’hydratation de la muqueuse respiratoire. Ceci a pour conséquence un défaut dans la clairance mucocilliaire, induisant infection chronique et inflammation excessive, deux facteurs fondamentaux de la physiopathologie. L’inflammation joue un rôle très important dans l’évolution de la maladie et malgré le nombre important d’études sur le sujet, la régulation du processus inflammatoire est encore très mal comprise et la place qu’y occupe le CFTR n’est pas établie. Toutefois, plusieurs autres facteurs, tels que le stress oxydatif participent à la physiopathologie de la maladie, et considérer leurs impacts est important pour permettre une vision globale des acteurs impliqués. Dans notre étude, nous exploitons la technologie des puces à ADN, pour évaluer l’état transcriptionnel d’une cellule épithéliale pulmonaire humaine fibro-kystique. Dans un premier temps, l’analyse de notre expérience identifie 128 gènes inflammatoires sur-exprimés dans les cellules FK par rapport aux cellules non FK où apparaissent plusieurs familles de gènes inflammatoires comme les cytokines ou les calgranulines. L’analyse de la littérature et des annotations suggèrent que la modulation de ces transcripts dépend de la cascade de NF-κB et/ou des voies de signalisation associées aux interférons (IFN). En outre, leurs modulations pourraient être associées à des modifications épigénétiques de leurs loci chromosomiques. Dans un second temps, nous étudions l’activité transcriptionnelle d’une cellule épithéliale pulmonaire humaine FK en présence de DMNQ, une molécule cytotoxique. Notre but est d’identifier les processus biologiques perturbés par la mutation du gène CFTR en présence du stress oxydatif. Fondé sur une analyse canonique de redondance, nous identifions 60 gènes associés à la mort cellulaire et leur variance, observée dans notre expérience, s’explique par un effet conjoint de la mutation et du stress oxydatif. La mesure de l’activité des caspases 3/7, des effecteurs de l’apoptose (la mort cellulaire programmée), montre que les cellules porteuses de la mutation ΔF508, dans des conditions de stress oxydatif, seraient moins apoptotiques que les cellules saines. Nos données transcriptomiques suggèrent que la sous-activité de la cascade des MAPK et la sur-expression des gènes anti-apoptotiques pourraient être impliquées dans le déséquilibre de la balance apoptotique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le projet de territoire n’aura jamais suscité autant de débats et de passions. Son devenir mobilise à bien des égards la construction collective d’un dessein se matérialisant par des formes qui informent des forces tout autant que par des forces qui investissent des formes lesquelles traduisent les valeurs du moment. Par conséquent, cette projection dans un avenir partagé amène des exigences sociales en matière d’édification du projet de territoire mettant à l’ordre du jour la complexité d’une telle entreprise. L’enchevêtrement d’actions et de logiques qui s’y opèrent et qui s’y expriment pour en élaborer, dans la plus grande incertitude, les contours d’un futur souhaité nous presse de s’y prononcer : la construction complexe d’un dessein territorial s’exhibant nous interpelle quant à son évaluation voire quant à sa reformulation. Parmi les modalités d’expression qui permettent une telle délibération, il y a l’énoncé visuel. Médiation discursive privilégiée, elle autorise l’élaboration et la mise en scène collective d’un devenir territorial possible. Or depuis quelques années, au couple projet / représentation, vient se superposer une autre médiation, celle du numérique. Portée par le développement des technologies de l’information, celle-ci s’invite dans le champ de l’édification du projet de territoire. En s’alliant avec la puissance de l’image, elle recompose les représentations d’un dessein territorial collectivement formulé, ouvrant un nouvel espace d’actions à l’occasion d’une démarche de planification. Démarche de plus en plus complexe. De surcroit, la présente recherche tient cette complexité non comme un mot «fourre-tout» ou une tare dont il faudrait se débarrasser, mais se résout à l’affronter en s’inscrivant dans un paradigme en pleine gestation, celui de la «pensée complexe». La fécondité autant conceptuelle qu’opératoire d’une telle inscription permettra de jeter un regard renouvelé sur une pratique à travers une de ses modalités discursives à la fois la plus manifeste et la moins questionnée, à savoir l’énoncé visuel. En fin de compte, les représentations notamment celles construites et véhiculées par le numérique sauront-elles rendre compte et relever le défi de l’édification collective d’un projet de territoire qui se pose dans toute sa complexité ? Telle est en substance le questionnement dont cette recherche s’attellera à apporter des éléments de réponse et à esquisser de nouvelles perspectives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La traduction statistique vise l’automatisation de la traduction par le biais de modèles statistiques. Dans ce travail, nous relevons un des grands défis du domaine : la recherche (Brown et al., 1993). Les systèmes de traduction statistique de référence, tel Moses (Koehn et al., 2007), effectuent généralement la recherche en explorant l’espace des préfixes par programmation dynamique, une solution coûteuse sur le plan computationnel pour ce problème potentiellement NP-complet (Knight, 1999). Nous postulons qu’une approche par recherche locale (Langlais et al., 2007) peut mener à des solutions tout aussi intéressantes en un temps et un espace mémoire beaucoup moins importants (Russell et Norvig, 2010). De plus, ce type de recherche facilite l’incorporation de modèles globaux qui nécessitent des traductions complètes et permet d’effectuer des modifications sur ces dernières de manière non-continue, deux tâches ardues lors de l’exploration de l’espace des préfixes. Nos expériences nous révèlent que la recherche locale en traduction statistique est une approche viable, s’inscrivant dans l’état de l’art.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce travail, nous explorons la faisabilité de doter les machines de la capacité de prédire, dans un contexte d'interaction homme-machine (IHM), l'émotion d'un utilisateur, ainsi que son intensité, de manière instantanée pour une grande variété de situations. Plus spécifiquement, une application a été développée, appelée machine émotionnelle, capable de «comprendre» la signification d'une situation en se basant sur le modèle théorique d'évaluation de l'émotion Ortony, Clore et Collins (OCC). Cette machine est apte, également, à prédire les réactions émotionnelles des utilisateurs, en combinant des versions améliorées des k plus proches voisins et des réseaux de neurones. Une procédure empirique a été réalisée pour l'acquisition des données. Ces dernières ont fourni une connaissance consistante aux algorithmes d'apprentissage choisis et ont permis de tester la performance de la machine. Les résultats obtenus montrent que la machine émotionnelle proposée est capable de produire de bonnes prédictions. Une telle réalisation pourrait encourager son utilisation future dans des domaines exploitant la reconnaissance automatique de l'émotion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.