84 resultados para plateformes mobiles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous montrons l’utilisation de la puce exon d’Affymetrix pour l’analyse simultanée de l’expression des gènes et de la variation d’isoformes. Nous avons utilisé les échantillons d’ARN du cerveau et des tissus de référence qui ont été antérieurement utilisés dans l’étude du consortium MicroArray Quality Control (MAQC). Nous démontrons une forte concordance de la quantification de l’expression des gènes entre trois plateformes d’expression populaires à savoir la puce exon d’Affymetrix, la puce Illumina et la puce U133A d’Affymetrix. Plus intéressant nous montrons que la majorité des discordances entre les trois plateformes résulterait des positions différentes des sondes à travers les plateformes et que les variations d’isoforme exactes ne peuvent être identifiées que par la puce exon. Nous avons détecté avec succès, entre les tissus de référence et ceux du cerveau, une centaine de cas d’évènements d’épissage alternatif. La puce exon est requise dans l’analyse de l’épissage alternatif associé aux pathologies telles que les cancers et les troubles neurologiques. Comme application de cette technologie, nous avons analysé les variations d’épissage dans la métastase du cancer de sein développé dans le model de la souris. Nous avons utilisé une gamme bien définie de trois lignées de tumeur mammaire ayant différents potentiels métastatiques. Par des analyses statistiques, nous avons répertorié 2623 transcripts présentant des variations d’expression et d’isoformes entre les types de tumeur. Une analyse du réseau de gènes montre qu’environ la moitié d’entre eux est impliquée dans plusieurs activités cellulaires, ainsi que dans nombreux cancers et désordres génétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude porte sur la distance parcourue pour commettre un crime à Gatineau en 2006. Peu d’études canadiennes récentes ont porté sur le sujet. De plus, il existe un vide de connaissances sur la mobilité des délinquants dans les petites villes et les banlieues. La présente recherche vise à comparer trois mesures de distance différentes, à vérifier si la distance parcourue varie en fonction du type de crime et à voir si les variables de temps (jour de la semaine, moment de la journée et saison) de même que certaines caractéristiques des suspects (âge, sexe et lieu de résidence) ont un impact sur la distance parcourue. Pour chaque crime, l’adresse du suspect et le lieu du crime ont été géocodées pour ensuite calculer la distance entre les deux points. Il ressort de l’analyse de la forme des courbes de distances que seules les agressions sexuelles présentent une zone tampon. Les résultats des analyses statistiques indiquent que les jeunes sont plus mobiles que les suspects plus âgés et que les hommes parcourent une distance plus élevée que les femmes. Étonnement, la distance parcourue ne diffère pas significativement selon la saison et le moment de la journée. Enfin, comparativement aux autres criminels, les délinquants qui ont commis un vol qualifié sont ceux qui ont parcouru les plus grandes distances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire examine l'adoption des téléphones mobiles et l'utilisation des messages texte (SMS) par les adolescents chinois, selon la théorie des usages et gratifications et de la recherche sur la communication par ordinateur. Certains champs particuliers de l'utilisation des messages textes par les adolescents chinois, comme le contrôle parental, la circulation des chaînes de messages, la popularité des messages de salutations et l'utilisation répandue des émoticônes ont été étudiés. La fonction sociale des SMS, plus particulièrement des pratiques sociales et des relations émotionnelles des adolescents chinois, a également été explorée. Cette étude est basée sur un sondage réalisé sur le terrain auprès de 100 adolescents chinois. Elle révèle que chez les adolescents chinois, les deux principales raisons pour l'adoption du téléphone mobile sont l'influence parentale et le besoin de communication sociale. Quant à l'utilisation des messages texte, elle répond à sept usages et gratifications : la flexibilité, le coût modique, l’intimité, éviter l'embarras, le divertissement, l'engouement et l'évasion. Il a également été observé que les messages texte jouent un rôle positif dans la construction et l'entretien des relations sociales des adolescents chinois.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tagatose-1,6-biphosphate aldolase de Streptococcus pyogenes est une aldolase de classe I qui fait montre d'un remarquable manque de spécificité vis à vis de ses substrats. En effet, elle catalyse le clivage réversible du tagatose-1,6-biphosphate (TBP), mais également du fructose-1,6-biphosphate (FBP), du sorbose-1,6-biphosphate et du psicose-1,6-biphosphate, quatre stéréoisomères, en dihydroxyacétone phosphate (DHAP) et en glycéraldéhyde-3-phosphate (G3P). Afin de mettre à jour les caractéristiques du mécanisme enzymatique, une étude structurale de la TBP aldolase de S. pyogenes, un pathogène humain extrêmement versatile, a été entreprise. Elle a permis la résolution de la structure native et en complexe avec le DHAP, a respectivement 1.87 et 1.92 Å de résolution. Ces mêmes structures ont permis de se représenter plus clairement le site actif de l'enzyme en général, et les résidus catalytiques en particulier. Le trempage des cristaux de TBP aldolase dans une solution saturante de DHAP a en outre permis de piéger un authentique intermédiaire iminium, ainsi que sa géométrie particulière en atteste. Des expériences d'échange de proton, entreprises afin d'évaluer le stéréoisomérisme du transfert de proton catalytique, ont également permis de faire une intéressante découverte : la TBP aldolase ne peut déprotoner le coté pro-R du C3 du DHAP, mais peut le protonner. Ce résultat, ainsi que la comparaison de la structure du complexe TBP aldolase-DHAP avec la structure du complexe FBP aldolase de muscle de lapin- DHAP, pointe vers un isomérisme cis-trans autour du lien C2-C3 de la base de Schiff formée avec le DHAP. De plus, la résolution de ces deux structures a permis de mettre en évidence trois régions très mobiles de la protéine, ce qui pourrait être relié au rôle postulé de son isozyme chez S. pyogenes dans la régulation de l’expression génétique et de la virulence de la bactérie. La cristallographie par rayons X et la cinétique enzymatique ont ainsi permis d'avancer dans l'élucidation du mécanisme et des propriétés structurales de cette enzyme aux caractéristiques particulières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réforme et l’harmonisation du droit des sûretés mobilières sont à l’ordre du jour de plusieurs organisations internationales, car il est admis qu’un régime de sûretés efficient favorise l’accès au crédit à de faibles coûts. L’harmonisation de ce droit comporte deux volets. D’une part, dans l’Occident industrialisé, les efforts d’harmonisation vont de la réforme des droits internes à l’établissement de régimes spéciaux relativement à des biens spécifiques (principalement les biens mobiles de grande valeur, tels les aéronefs, le matériel ferroviaire roulant et les satellites, et les biens incorporels, comprenant les créances, valeurs mobilières, actifs financiers et titres intermédiés). Ces efforts d’harmonisation démontrent que d’un point de vue systémique, malgré quelques différences notables, les régimes nord-américains et européens sont fondés sur des principes similaires et atteignent des résultats comparables. En résulte l’émergence d’un ordre juridique transnational en droit des sûretés mobilières, fondé sur les principes de la primauté de l’individu et la reconnaissance du droit de propriété de l’individu dans ses biens, mis en œuvre grâce à l’État de droit. D’autre part, les institutions financières internationales encouragent l’établissement de régimes de sûretés dans les pays en voie de développement qui obéissent aux mêmes critères que ceux de l’Occident, en insistant sur les réformes institutionnelles et juridiques visant l’établissement d’une bonne gouvernance et l’État de droit. Cependant, une transposition des régimes occidentaux ne peut se faire sans heurts dans les pays en voie de développement, notamment pour des raisons socio-culturelles et politiques. Lorsque les principes de la primauté de l’individu, de la propriété individuelle et de l’État de droit ne sont pas reconnus dans un pays donné, la réforme et l’harmonisation du droit des sûretés s’en trouvent compromis. La démonstration de l’état d’avancement de la réforme et de l’harmonisation du droit des sûretés dans les pays occidentaux industrialisés est faite grâce à une comparaison du Uniform Commercial Code, du Code civil du Québec, des Personal Property Security Acts des provinces canadiennes de common law, des principes des droits français et anglais, de l’influence du droit communautaire sur les pays membres de l’Union Européenne. Sont analysés, aussi, dans cette optique, les principaux instruments de l’harmonisation du droit émanant des organisations internationales. Par ailleurs, deux études de cas relatifs à la réforme du crédit foncier en Égypte et à la réforme de l’urbanisme et de l’habitat en République démocratique du Congo, viennent étayer les difficultés que rencontrent les institutions internationales, telles la Banque mondiale et l’ACDI, dans le cadre de projets de réformes visant la bonne gouvernance et l’instauration d’un véritable État de droit, en partie à cause d’un pluralisme des ordres juridiques de ces pays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de ce mémoire à été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transplantation pulmonaire pour les patients avec une maladie pulmonaire en phase terminale est leur seul espoir de survie. Malheureusement, certains greffés du poumon rencontrent des difficultés après la transplantation du poumon, dont l'un est le rejet chronique du greffon pulmonaire également connu histologiquement comme la bronchiolite oblitérante et cliniquement comme syndrome de bronchiolite oblitérante. L'étiologie exacte de la BO reste mal comprise. Certaines hypothèses suggèrent l'implication des cellules épithéliales dans le processus de remodelage des voies respiratoires, conduisant à l'obstruction des voies aériennes. Un des mécanismes proposés est un processus de transition, connue sous le nom de transition épithéliale-mésenchymateuse (TEM). Lors de ce processus, les cellules perdent leurs propriétés épithéliales, acquièrent un phénotype mésenchymateux et deviennent plus mobiles et envahissantes. Cette transformation leur permet de participer activement au processus de remodelage bronchique dans la bronchiolite oblitérante. L’induction de la TEM peut être due à certains facteurs tels que l'inflammation et l'apoptose. Le principal objectif de ce travail de maîtrise est de détecter in vivo la présence de la TEM dans des biopsies transbronchiques obtenues chez des greffés et de l’associer à leurs conditions cliniques. Le deuxième objectif est d'induire la TEM in vitro dans les cellules épithéliales des petites voies aériennes à l'aide de milieux conditionnés apoptotiques et non apoptotiques produits par les cellules endothéliales microvasculaires humaines du poumon. D’autre part, nous avons évalué si des médiateurs connus pour participer au processus de TEM tels que le facteur de croissance du tissu conjonctif (CTGF)et le facteur de croissance transformant bêta (TGF-beta) ainsi que le perlecan sont présents dans les milieux conditionnés utilisés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours du Sylvicole supérieur (1000-1500 AD), le secteur de l’embouchure du Saguenay aurait été exploité par des groupes Iroquoiens du Saint-Laurent en quête de ressources marines, et plus particulièrement du phoque. Ces groupes provenaient vraisemblablement de la région de Québec où se trouvaient leurs camps de base et auraient ainsi développé une forme d’adaptation aux ressources marines de l’estuaire, faisant d’eux les groupes iroquoiens les plus mobiles de toute la vallée du Saint-Laurent. Dans cette étude, nous proposons que l’exploitation des mammifères marins fût pratiquée en deux temps, d’abord au printemps, lors de courtes périodes par des contignents de chasseurs masculins attirés par le phoque du Groenland et puis en été, par des familles entières profitant de la présence de phoques gris et commun. Les pinnipèdes étaient probablement traqués sur la batture ou sur les glaces et abattus à la hache ou à l’arc et à la flèche. Puisque les résidus alimentaires retrouvés dans les vases de cuisson étaient surtout composés de poissons et de mammifères terrestres, il est supposé que des sous-produits de la chasse au phoque aient été rapportés dans la région de Québec et utilisés comme réserve de nourriture, comme matière première ou comme monnaie d’échange. Nous défendons également l’hypothèse que ces excursions dans l’estuaire n’étaient pas nécessairement liées à la précarité de l’agriculture dans la région de Québec puisque cette pratique aurait été adoptée tardivement, soit après 1300 AD et peut être même à partir de 1400 AD. Les données sont issues de six sites ayant fait l’objet de fouilles répartis sur une bande littorale de 40 km de longueur. Il s’agit des sites Ouellet (DaEk-6), Anse-aux-Pilotes IV (DbEj-7), Cap-de-Bon-Désir (109G), Site archéologique des Basques-de-l’Anse-à-la-Cave (DbEi-5), Pointe-à-Crapaud (DbEi-2) et Escoumins I (DcEi-1).