1000 resultados para Alignement tâche-technologie
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
La réflexion sur l’intégration au travail des nouvelles enseignantes touche de plus en plus la communauté des chercheurs en éducation. Avec la valorisation de la pratique réflexive, l’enseignante se voit plus que par le passé autorisé à exercer une grande liberté d’action dans son travail, ainsi qu’une grande autonomie en ce qui à trait à l’exécution de sa tâche. Cette liberté peut être lourde à porter, surtout lorsqu’on entre dans le métier. Aussi, pour soutenir cette liberté et la diriger, la référence aux valeurs demeure fondamentale. Dans le présent mémoire, nous tentons d’en savoir plus sur les valeurs qui animent ces nouvelles venues, et comment celles-ci les aident à vivre leur intégration et à concevoir leur place dans le métier. La cueillette des données effectuée à partir de leurs réflexions, souvent profondes, sur les valeurs personnelles, les valeurs au travail et le rapport au métier, permet une analyse du discours basée sur le ressenti et l’expérience. C’est en puisant dans les thèses de la modernité et de la postmodernité, toutes deux parlantes quant à l’époque actuelle, que nous tentons de mieux cerner et induire les valeurs propres aux enseignantes ayant participé à notre étude phénoménologique de type exploratoire. Grâce à l’analyse de contenu, nous sommes à même de constater que malgré une ligne de partage présente entre certaines valeurs dites modernes et postmodernes, il n’en demeure pas moins qu’une tendance se dessine : nos nouvelles enseignantes désirent être fidèles d’abord et avant tout à elles-mêmes, même si cela implique l’abandon du métier qu’elles envisagent toutes comme une possibilité, sans exception. Cela en dit long sur leurs priorités et leurs valeurs au travail. Il est clair qu’elles travaillent de manière à se sentir authentiques, toujours avec le souci de savoir s’adapter aux nouvelles situations. Cependant, même si certaines d’entre elles trouvent plus ardu de s’adapter à une demande en matière de flexibilité professionnelle à la hausse, il n’en demeure pas moins que la flexibilité au travail est un élément désormais bien intégré à l’habitus professionnel des enseignantes pratiquant depuis dix ans et moins. Si postmodernes que ça nos nouvelles enseignantes? Oui.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Les cadriciels et les bibliothèques sont indispensables aux systèmes logiciels d'aujourd'hui. Quand ils évoluent, il est souvent fastidieux et coûteux pour les développeurs de faire la mise à jour de leur code. Par conséquent, des approches ont été proposées pour aider les développeurs à migrer leur code. Généralement, ces approches ne peuvent identifier automatiquement les règles de modification une-remplacée-par-plusieurs méthodes et plusieurs-remplacées-par-une méthode. De plus, elles font souvent un compromis entre rappel et précision dans leur résultats en utilisant un ou plusieurs seuils expérimentaux. Nous présentons AURA (AUtomatic change Rule Assistant), une nouvelle approche hybride qui combine call dependency analysis et text similarity analysis pour surmonter ces limitations. Nous avons implanté AURA en Java et comparé ses résultats sur cinq cadriciels avec trois approches précédentes par Dagenais et Robillard, M. Kim et al., et Schäfer et al. Les résultats de cette comparaison montrent que, en moyenne, le rappel de AURA est 53,07% plus que celui des autre approches avec une précision similaire (0,10% en moins).
Resumo:
L’armée de Gaule sous le Bas-Empire fut une des trois armées principales de l’Empire romain. Son évolution de la fin du IIIe siècle jusqu’au début du Ve fut marquée par une réorganisation graduelle dans le commandement, ainsi que dans l’organisation des troupes et des fortifications. Ces réformes ont fait l’objet d’études qui ont dressé un schéma de déploiement des troupes resté longtemps populaire. À ce schéma s’est ensuite ajoutée l’idée de la stratégie à grande échelle qui y aurait été associée. Ce mémoire tâche de dresser une synthèse des derniers travaux sur l’armée romaine tardive en Gaule. L’approche choisie repose sur une réévaluation des sources sans l’influence d’un schéma défensif préconçu, ainsi que sur une critique de certaines idées reçues concernant l’armée romaine du IVe siècle.
Resumo:
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.
Resumo:
La téléréadaptation, tout comme d’autres champs en télésanté, est de plus en plus interpelée pour la prestation de services. Le but de ce projet de thèse est d’enrichir l’évaluation de la téléréadaptation afin que les connaissances qui en découlent puissent venir soutenir la prise de décision d’acteurs impliqués à différents niveaux en téléréadaptation. Le premier article présente une revue systématique dont l’objectif était de faire synthèse critique des études en téléréadaptation. La revue rassemble 28 études en téléréadaptation, qui confirment l’efficacité de la téléréadaptation pour diverses clientèles dans différents milieux. Certaines des études suggèrent également des bénéfices en termes de coûts, mais ces résultats demeurent préliminaires. Cette synthèse critique est utile pour soutenir la décision d’introduire la téléréadaptation pour combler un besoin. Par contre, les décideurs bénéficieraient aussi de connaissances par rapport aux changements cliniques et organisationnels qui sont associés à la téléréadaptation lorsqu’elle est introduite en milieu clinique. Les deux autres articles traitent d’une étude de cas unique qui a examiné un projet clinique de téléréadaptation dans l’est de la province de Québec, au Canada. Le cadre conceptuel qui sous-tend l’étude de cas découle de la théorie de structuration de Giddens et des modèles de structuration de la technologie, en particulier de l’interaction entre la structure, l’agent et la technologie. Les données ont été recueillies à partir de plusieurs sources (groupes de discussion, entrevues individuelles, documents officiels et observation d’enregistrements) suivi d’une analyse qualitative. Le deuxième article de la thèse porte sur le lien entre la structure, l’agent et la culture organisationnelle dans l’utilisation de la téléréadaptation. Les résultats indiquent que les différences de culture organisationnelle entre les milieux sont plus évidentes avec l’utilisation de la téléréadaptation, entraînant des situations de conflits ainsi que des occasions de changement. De plus, la culture organisationnelle joue un rôle au niveau des croyances liées à la technologie. Les résultats indiquent aussi que la téléréadaptation pourrait contribuer à changer les cultures organisationnelles. Le troisième article examine l’intégration de la téléréadaptation dans les pratiques cliniques existantes, ainsi que les nouvelles routines cliniques qu’elle permet de soutenir et la pérennisation de la téléréadaptation. Les résultats indiquent qu’il y a effectivement certaines activités de téléréadaptation qui se sont intégrées aux routines des intervenants, principalement pour les plans d’intervention interdisciplinaire, tandis que pour les consultations et le suivi des patients, l’utilisation de la téléréadaptation n’a pas été intégrée aux routines. Plusieurs facteurs en lien avec la structure et l’agent ont contraint et facilité l’intégration aux routines cliniques, dont les croyances partagées, la visibilité de la téléréadaptation, le leadership clinique et organisationnel, la disponibilité des ressources, et l’existence de liens de collaboration. La pérennité de la téléréadaptation a aussi pu être observée à partir de la généralisation des activités et le développement de nouvelles applications et collaborations en téléréadaptation, et ce, uniquement pour les activités qui s’étaient intégrées aux routines des intervenants. Les résultats démontrent donc que lorsque la téléréadaptation n’est pas intégrée aux routines cliniques, elle n’est pas utilisée. Par contre, la téléréadaptation peut démontrée certains signes de pérennité lorsque les activités, qui sont reproduites, deviennent intégrées aux routines quotidiennes des utilisateurs. Ensemble, ces études font ressortir des résultats utiles pour la mise en place de la téléréadaptation et permettent de dégager des pistes pour enrichir le champ de l’évaluation de la téléréadaptation, afin que celui-ci devienne plus pertinent et complet, et puisse mieux soutenir les prises de décision d’acteurs impliqués à différents niveaux en téléréadaptation.
Resumo:
Dans le développement logiciel en industrie, les documents de spécification jouent un rôle important pour la communication entre les analystes et les développeurs. Cependant, avec le temps, les changements de personel et les échéances toujours plus courtes, ces documents sont souvent obsolètes ou incohérents avec l'état effectif du système, i.e., son code source. Pourtant, il est nécessaire que les composants du système logiciel soient conservés à jour et cohérents avec leurs documents de spécifications pour faciliter leur développement et maintenance et, ainsi, pour en réduire les coûts. Maintenir la cohérence entre spécification et code source nécessite de pouvoir représenter les changements sur les uns et les autres et de pouvoir appliquer ces changements de manière cohérente et automatique. Nous proposons une solution permettant de décrire une représentation d'un logiciel ainsi qu'un formalisme mathématique permettant de décrire et de manipuler l'évolution des composants de ces représentations. Le formalisme est basé sur les triplets de Hoare pour représenter les transformations et sur la théorie des groupes et des homomorphismes de groupes pour manipuler ces transformations et permettrent leur application sur les différentes représentations du système. Nous illustrons notre formalisme sur deux représentations d'un système logiciel : PADL, une représentation architecturale de haut niveau (semblable à UML), et JCT, un arbre de syntaxe abstrait basé sur Java. Nous définissons également des transformations représentant l'évolution de ces représentations et la transposition permettant de reporter les transformations d'une représentation sur l'autre. Enfin, nous avons développé et décrivons brièvement une implémentation de notre illustration, un plugiciel pour l'IDE Eclipse détectant les transformations effectuées sur le code par les développeurs et un générateur de code pour l'intégration de nouvelles représentations dans l'implémentation.
Resumo:
Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
La présence importante de plusieurs réseaux sans-fils de différentes portées a encouragée le développement d’une nouvelle génération d’équipements portables sans-fils avec plusieurs interfaces radio. Ainsi, les utilisateurs peuvent bénéficier d’une large possibilité de connectivité aux réseaux sans-fils (e.g. Wi-Fi [1], WiMAX [2], 3G [3]) disponibles autour. Cependant, la batterie d’un nœud mobile à plusieurs interfaces sera rapidement épuisée et le temps d’utilisation de l’équipement sera réduit aussi. Pour prolonger l’utilisation du mobile les standards, des réseaux sans-fils, on définie (individuellement) plusieurs états (émission, réception, sleep, idle, etc.); quand une interface radio n’est pas en mode émission/réception il est en mode sleep/idle où la consommation est très faible, comparée aux modes émission/réception. Pourtant, en cas d’équipement portable à multi-interfaces radio, l’énergie totale consommée par les interfaces en mode idle est très importante. Autrement, un équipement portable équipé de plusieurs interfaces radio augmente sa capacité de connectivité mais réduit sa longévité d’utilisation. Pour surpasser cet inconvénient on propose une plate-forme, qu'on appelle IMIP (Integrated Management of Interface Power), basée sur l’extension du standard MIH (Media Independent Handover) IEEE 802.21 [4]. IMIP permet une meilleure gestion d’énergie des interfaces radio, d’un équipement mobile à multi-radio, lorsque celles-ci entrent en mode idle. Les expérimentations que nous avons exécutées montrent que l’utilisation de IMIP permet d'économiser jusqu'a 80% de l'énergie consommée en comparaison avec les standards existants. En effet, IMIP permet de prolonger la durée d'utilisation d'équipements à plusieurs interfaces grâce à sa gestion efficace de l'énergie.
Resumo:
Les nouvelles technologies médicales contribuent aux dépenses en santé qui ne cessent de croître, alors que les budgets se trouvent limités. L’évaluation économique des technologies devraient permettre d’identifier quelles sont celles qui sont les plus rentables. Malgré cela, plusieurs technologies dont le rapport coût-efficacité reste plutôt limite ou défavorable sont utilisées en médecine moderne et remboursées par notre système public de santé. Ce mémoire se concentre sur deux technologies en santé cardiovasculaire dont le rapport coût-efficacité est plutôt limite mais qui sont fréquemment utilisées au Canada; les tuteurs médicamentés ou pharmaco-actifs et les défibrillateurs cardiaques implantables (DCI). Nous avons fait une évaluation contingente de ces technologies dans le but d’examiner si ce type d’évaluation économique complémentaire pouvait procurer un point de vue nouveau sur la valeur économique et sociétaire des ces technologies. Les résultats de ces deux évaluations indiquent que les patients accordent une grande importance aux bénéfices que procurent ces deux technologies. Nos résultats soutiennent les politiques de santé actuelles de rembourser de façon libérale ces deux technologies.
Resumo:
Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.