570 resultados para chaîne de valeur forestière
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
Ce mémoire de maîtrise en recherche-création explore aussi bien la teneur populaire que l'aspect proprement théâtral associés aux figures narratives que sont les bonimenteurs. À partir d'une lecture critique des Nouvelles récréations et joyeux devis (1558) de Bonaventure Des Périers, le volet essai du mémoire tente de cerner quelle est la posture particulière que présente ce narrateur bonimenteur de la Renaissance française. Nous avons cette fois tenté de voir comment ce discours employé par Des Périers, grâce à une stylistique et une structure discursive qui lui sont propres, participe de la figure du bonimenteur s’adressant au lecteur comme il le ferait sur une place publique, usant de cette posture pour jouer avec son lecteur, grâce à des effets paradoxaux de rapprochement et de mise à distance. Cette façon ludique de se mettre en valeur propre aux bonimenteurs aura des échos jusque dans le volet création du mémoire. Propos et contes avinés est un recueil de nouvelles inspiré de la tradition boccaccienne dans lequel des protagonistes se racontent des histoires pour convaincre leurs interlocuteurs du bien-fondé de leur position. S’y juxtapose aussi bien la parole dialoguée (dans les « propos ») que la parole narrative (dans les « contes »), dans une atmosphère carnavalesque.
Resumo:
Située dans le discours actuel à la mode sur la diversité culturelle, l’objet de cette thèse consiste à comprendre l’orientation pratique d’une organisation internationale en matière de gestion de sa diversité culturelle interne. Il propose que, face aux changements qui ont modifié la configuration sociodémographique de la sphère organisationnelle, il serait intéressant de partir d’une organisation pour laquelle la diversité est une tradition tributaire de son fonctionnement. L’organisation sujet d’étude est internationale, affiliée à l’Unesco. Cette dernière étant reconnue pour son mandat qui valorise et protège les cultures. L’ancrage épistémologique de la thèse est bi-disciplinaire. Il considère deux champs théoriques sur lesquels se construit la diversité culturelle. Le premier est forgé dans les théories de management dites « occidentales » sur la diversité. Le deuxième champ, s’établit sur une approche dynamique de la culture apportée par les « Cross-Cultural Studies ». La méthodologie que nous avons mobilisée pour cette recherche est principalement qualitative. Elle est également diverse puisqu’elle veut identifier trois niveaux d’analyses. D’abord, l’étude historique réalisée se fonde sur l’analyse d’articles choisis tirés des archives de l’« organisation mère » (Unesco). Elle se veut être une étude exhaustive qui révèle l’évolution du discours « global » de cette organisation sur la diversité culturelle depuis sa création. Ensuite, afin de mieux comprendre le discours interne de l’Organisation sur la diversité culturelle, une analyse du contenu d’un « halo » de ses politiques internes a lieu. Elle nous permet de comprendre la valeur que prend la diversité culturelle dans son discours « organisationnel » dans la période de temps que nous traitons. Enfin, les histoires « individuelles » des acteurs de la diversité culturelle, apportent une description riche et, complètent l’analyse avec leurs interprétions des pratiques de gestions mises en place à leur égard. Des éléments de recherche sous adjacentes sont aussi amenés dans la thèse et font également partie du processus de l’analyse de la pratique de la diversité culturelle dans l’Organisation. En effet, la thèse se penche sur le problème conceptuel sur la « diversité culturelle ». Elle apporte des éclaircissements à la terminologie à travers l’analyse de ses différents emplois dans la littérature organisationnelle. Par ailleurs, elle clarifie la notion d’organisation internationale et propose une description du contexte unesquien défini par sa diversité culturelle interne. L’ensemble des niveaux examinés a permis de mettre en évidence une double constatation. D’une part, le paradoxe entre les trois niveaux. D’autre part, la neutralité des pratiques de gestion de la diversité culturelle pour les employés et la demande implicite de reconnaissance de leurs identités culturelles. Des recommandations sont proposées et des suggestions pour de recherches ultérieures sont formulées à la conclusion de la thèse.
Resumo:
Depuis la découverte d’archées capables d’oxyder l’ammoniac en milieu aérobie, de nombreuses études ont mesuré en simultané les taux de nitrification et la diversité des organismes oxydant l’ammoniac dans la colonne d’eau des milieux marins. Malgré l’importance globale des lacs d’eau douce, beaucoup moins d’études ont fait la même chose dans ces milieux. Dans cette étude, nous avons évalué l’importance de la nitrification et caractérisé la communauté microbienne responsable de la première étape limitante de la nitrification dans un lac tempéré durant une année entière. L’utilisation de traceur isotopique 15NH4 nous a permis de mesurer des taux d’oxydation d’ammoniac à deux profondeurs dans la zone photique tout au long de l’année. Les taux d’oxydation d’ammoniac varient de non détectable à 333 nmol L-1 j-1 avec un pic d’activité sous la glace. De toutes les variables environnementales mesurées, la concentration d’ammonium dans la colonne d’eau semble avoir le plus grand contrôle sur les taux d’oxydation d’ammoniac. Nous avons détecté la présence d’archées (AOA) et de bactéries oxydante d’ammoniac (BOA) à l’aide de tests par réaction en chaîne de la polymérase (PCR) ciblant une partie du gène ammoniac monoxygénase (amoA). Les AOA et les BOA ont été détectées dans la zone photique du lac, cependant seules les AOA étaient omniprésentes durant l’année. Le séquençage du gène amoA des archées révèle que la majorité des AOA dans le lac sont membres du groupe phylogénétique Nitrosotalea (également appelé SAGMGC-1 ou groupe I.1a associé), ce qui confirme la pertinence écologique de ce groupe dans les eaux douces oligotrophes. Globalement, nos résultats indiquent l’hiver comme étant un moment propice pour l’oxydation de l’ammoniac dans les lacs tempérés. Cette étude fournit un point de référence pour la compréhension du processus d’oxydation de l’ammoniac dans les petits lacs oligotrophes.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en criminologie
Resumo:
L’objectif principal de cet article est de mieux connaître les perceptions de personnes détenues en ce qui a trait aux effets sur le climat carcéral d’un règlement qui vise à restreindre l’usage du tabac dans les établissements de détention québécois. Une méthodologie mixte a été employée afin de recueillir des données auprès de 113 personnes détenues dans trois établissements de détention du Québec. Les données quantitatives ont été analysées de manière descriptive et comparative, alors que les données qualitatives ont fait l’objet d’une analyse thématique. Les résultats de l’étude démontrent que les personnes détenues, en désaccord pour la majorité avec l’implantation du nouveau règlement, ont perçu que son implantation a contribué à une hausse des tensions, du trafic de cigarettes et de leur valeur sur le marché noir. Selon leur position ou leur pouvoir, cette situation peut s’avérer profitable pour certains détenus alors qu’elle accroît la vulnérabilité d’autres détenus. L’hypothèse de départ voulant que l’entrée en vigueur d’un nouveau règlement sur le tabagisme entraîne des perturbations du climat carcéral est soutenue par les résultats obtenus.
Resumo:
Tout en voulant inclure la fiction télévisuelle brésilienne parmi les fictions de qualité, cette recherche analyse l’émergence et l’évolution du concept de qualité dans le panorama télévisuel brésilien. Examinant l’histoire de la télédramaturgie au Brésil, depuis les téléthéâtres jusqu’aux microséries réalisées par Luiz Fernando Carvalho, en particulier la microsérie Capitu (2008), nous suggérons que la production fictionnelle brésilienne a atteint un niveau de qualité sophistiquée et avant-gardiste qui illustre une alternative au style préconisé par la formule des séries télévisées américaines qui se regroupent sous l’étiquette de la Quality TV. De plus, le raffinement de la microsérie contribue à la légitimation de la valeur artistique de la télévision à partir de caractéristiques télévisuelles, contrairement à la production fictionnelle américaine dont l’esthétique plutôt cinématographique finit par discréditer davantage le petit écran. Finalement, nous souhaitons démontrer l’importance des innovations esthétiques que cette microsérie a apportées au sein d’une sphère médiatique qui semble se diriger progressivement et rapidement vers l’uniformisation du langage télévisuel et de son contenu.
Resumo:
En mars 2013, trois cent treize artefacts précolombiens, exposés auparavant dans le musée barcelonais des Suisses Jean-Paul Barbier et Monique Mueller, furent mis en vente chez Sotheby’s à Paris par ce couple de collectionneurs. L’affaire fut l’objet une couverture médiatique internationale lorsque des pays d’Amérique centrale et d’Amérique du Sud, notamment le Pérou, le Mexique et le Guatemala, protestèrent contre la tenue de cette vente, avançant que leur patrimoine culturel national n’est pas à vendre. La question centrale de ce mémoire porte sur le trafic illicite des biens culturels et elle se décline en trois axes, à partir d’une étude de cas : la collection Barbier-Mueller. Les relations complexes entre les musées et les grands collectionneurs sont observées dans le premier chapitre à la lumière des règles déontologiques qui régissent habituellement les institutions, afin de ne pas encourager l’acquisition d’objets impliqués dans des transactions illicites. Dans un deuxième temps, au moyen d’une succincte présentation du marché actuel de l’art mondial, l’influence des maisons de ventes aux enchères sera examinée. Tandis que la provenance des artefacts en vente n’est pas toujours clairement affichée, il est difficile de retracer la lignée des propriétaires ou leur nation d’origine. Or, sachant que la commercialisation illicite des biens culturels se développe à l’intérieur même du marché de l'art régulier, les auteurs parlent alors d’un « marché gris ». Ce mémoire remonte, depuis l’excavation en passant par leur exportation illégale, la chaîne de transactions de ces biens culturels qui aboutissent dans les expositions des plus prestigieuses institutions. Cette recherche aborde en dernier lieu certaines incongruités du marché de l’art en auscultant les particularités des outils fournis par l’UNESCO et l’ICOM, ainsi que la question de l’aliénation, en plus de celle des limites juridiques des pays requérants. Finalement, cette étude présente les oppositions entre le discours officiel et les actions réellement entreprises pour la protection du patrimoine culturel.
Resumo:
La présente recherche documente l’évolution des représentations sur les langues de cinq cas d’élèves plurilingues et immigrants ou issus de l’immigration, scolarisés en fin de cycle du primaire en milieu pluriethnique à Montréal, tout au long de l’implantation d’un projet d’Éveil aux langues, sur une période de deux ans. La méthodologie adoptée permet de décrire en profondeur et de façon nuancée, l’évolution des représentations des élèves sur les langues de leur répertoire plurilingue d’une part, et plus largement, sur les langues et de la diversité linguistique d’autre part. Les résultats de la recherche ont permis de mettre en évidence que l’implantation d’un projet d’Éveil aux langues sur deux ans : 1) a des effets positifs sur les représentations sur la diversité linguistique de ces élèves; 2) permet de soutenir le développement de représentations positives sur les langues du répertoire linguistique des élèves qui passe par l’acceptation de compétences partielles dans l’une ou l’autre des langues de leur répertoire et par l’expression d’un sentiment de fierté à propos de leur répertoire plurilingue; 3) permet le développement, chez les élèves, de diverses stratégies pour légitimer l’intégration de langues dans lesquelles ils ont des compétences partielles au sein de leur répertoire linguistique : apporter un jugement de valeur sur leurs compétences, spécifier leur domaine de compétence (expression orale ou écrite, compréhension orale ou écrite), qualifier, étiqueter leurs langues (langue maternelle, langue d’origine, langue seconde), adapter les définitions formelles présentées dans le projet sur le plurilinguisme à leur situation; 4) les représentations sur les langues par les élèves peuvent être marquées par le poids des représentations sociales; toutefois, cette tendance se lénifie au fur et à mesure de l’implantation du projet et une majorité d’élèves partage des représentations plus individualisées et moins marquées par des stéréotypes en fin de projet; 5) permet, pour les élèves de niveau scolaire fort et moyen, le développement d’un vocabulaire de haut niveau ainsi que le développement d’une curiosité envers la langue de l’Autre; 6) permet, pour les élèves de niveau scolaire faible, et à partir de la seconde année d’implantation, le développement d’un engagement dans les activités qui passe par une participation accrue au projet et le développement de compétence langagière (meilleure qualité argumentative); 7) offre la possibilité aux élèves de se connaître les uns les autres, d’être à l’écoute de l’Autre et d’exprimer de la curiosité envers la langue de l’autre et de reconnaître l’expertise de l’Autre, ceci participant à la mise en place d’une dynamique relationnelle propice aux apprentissages
Resumo:
La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.
Resumo:
Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Doctorat en psychologie option psychologie clinique
Resumo:
Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.
Resumo:
La mondialisation a favorisé l’essor de l’innovation collaborative entraînant une augmentation du nombre de partenariats entre différents acteurs. Grâce à leurs avantages multiples, les projets conjoints jouent un rôle fondamental dans le développement économique et industriel des secteurs à forte valeur ajoutée. Dans cette optique, la création ou la quantification de valeur par l’innovation collaborative repose en grande partie sur la capacité à commercialiser des innovations encadrées par une protection intellectuelle adéquate. Ainsi, la tendance mondiale témoigne d’une augmentation accrue des dépôts conjoints de brevets entre diverses entités. Ces co-dépôts soulèvent une variété de questions juridiques puisque les régimes statutaires ne sont pas nécessairement adaptés à la réalité des partenariats. D’abord, les régimes lacunaires proposés par les lois n’anticipent pas les conséquences juridiques de l’interaction entre divers acteurs. La variété de configurations d’intervenants et la typologie des partenariats entraînent une confusion entre les inventeurs et les propriétaires lors du dépôt d’une demande de brevet. Cette situation peut également induire de facto la copropriété d’un brevet pouvant causer des litiges et miner l’énorme valeur des brevets conjoints. Ensuite, les régimes statutaires sont également déficients à l’étape de l’exploitation d’un brevet conjoint. En comparant les régimes juridiques canadiens et américains, il devient possible de mieux cerner les enjeux juridiques associés aux questionnements présents lors de l’élaboration d’un partenariat. Afin d’obtenir des retombées fructueuses des brevets conjoints, une mise en forme contractuelle est proposée pour pallier ces lacunes statutaires. Grâce à des outils contractuels et à une planification pré-contractuelle, les copropriétaires pourront réaliser l’énorme potentiel de cette institution.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.