997 resultados para analyse réseaux


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente recherche porte sur la cohérence et la cohésion qu'il existe dans l'expression orale d'un jeune dysphasique du premier cycle du secondaire et dans la production écrite effectuée par celui-ci. Compte tenu du problème de langage parlé que présente entre autres la dysphasie, le risque de trouver le même problème est possiblement présent dans la production écrite. Cela a des répercussions au niveau scolaire dans l'expression de ses idées, l'apprentissage de l'écriture, peut-être même dans la compréhension de ce qu'il écoute et lit. Non seulement, cela a-t-il des conséquences dans les résultats académiques, mais aussi dans les relations sociales avec ses pairs et ses enseignants puisqu'il ne saisit pas certains énoncés du langage tels que des jeux de mots ou des métaphores. De plus, il a de la difficulté à exprimer clairement ses idées et ses opinions. Ces obstacles à l'expression orale et celle écrite peuvent éventuellement marginaliser le jeune dysphasique et le démotiver. Des études ont mis en évidence qu'il existe une relation entre le langage parlé et l'apprentissage de l'écriture : si le jeune dysphasique éprouve des difficultés à s'exprimer oralement, il en sera de même dans la production écrite. Toutefois, d'autres études démontrent que l'apprentissage de l'écriture aide à améliorer le langage oral. Toutes ces études ont été effectuées sur de jeunes enfants au niveau préscolaire ou au primaire; elles ont été faites à partir de textes narratifs restitués par des jeunes n'ayant par de problème de langage. Notre recherche, qui est exploratoire et descriptive, concerne des jeunes du premier cycle du secondaire et la collecte de données s'est faite à partir d'un texte courant. Elle visait deux objectifs spécifiques : premièrement, analyser la cohérence et la cohésion dans la restitution orale et celle écrite d'un sujet tout-venant et dans celles d'un jeune dysphasique; et deuxièmement, décrire les relations entre les restitutions des deux sujets. Pour ce faire, la collecte de données s'est déroulée de la manière suivante : nous avons demandé à deux jeunes de deuxième et troisième secondaires, l'un, tout-venant et l'autre, dysphasique, de restituer ce qu'ils se rappelaient de l'écoute d'un texte à dominante descriptive laquelle leur a été faite à tour de rôle. Dans un premier temps, ils devaient rappeler oralement le contenu du texte lu, et dans un deuxième temps, ils devaient écrire ce dont ils se souvenaient du même texte. Une fois les restitutions orales transcrites sous forme de Verbatim, elles ont été, tout comme les restitutions écrites, décrites et comparées entre elles selon les critères suivants : la cohérence (intégration et hiérarchisation et la cohésion (récurrence, coréférence, contiguïté sémantique et connecteurs). Les résultats obtenus montrent d'abord que les restitutions orales et écrites présentent des similitudes quant à la cohérence et la cohésion. Les restitutions écrites sont légèrement plus détaillées, c'est-à-dire quelques idées ont été ajoutées ou précisées. Par exemple, dans la restitution orale, comme dans celle écrite, le sujet tout-venant mentionne que les fourmis d'Argentine pourraient être "dangereuses pour les arbres fruitiers". Dans sa restitution écrite, il ajoute comme informations que ces insectes "aiment le sucre" et qu'elles "vont dans les maisons". Les observations montrent aussi une différence entre les restitutions du jeune toutvenant et celles du jeune dysphasique. Ce dernier rappelle les informations du texte de façon cohérente et presque complète alors que le sujet tout-venant ne restitue que les informations de la première partie, et ce, de la façon la plus simple, soit par l'énumération sans connecteurs autres que ceux de l'énumération. Par contre, le sujet tout-venant maîtrise les procédés cohésifs mieux que le sujet dysphasique. Quant à ce dernier, il semble mieux réussir à l'écrit qu'à l'oral. La compréhension des informations de façon globale et, peut-être, le type de texte influencent les résultats dans le rappel des informations. Le sujet dysphasique peut restituer les idées, et ce, de façon structurée s'il saisit bien l'idée globale du texte qu'il lui a été lu, mais la microstructure est moins maîtrisée, sauf l'utilisation des connecteurs qui a probablement un lien plus étroit - que les autres procédés cohésifs - avec la cohérence et la compréhension des idées. Donc, à partir de l'analyse des restitutions orale et écrite, il semble que le trouble de langage aurait des répercussions au niveau des procédés de la cohésion, sauf dans le cas des connecteurs. L'utilisation de ceux-ci et les procédés de cohérence sont maîtrisés par le jeune dysphasique qui a compris le contenu du texte qui lui a été lu.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La discussion des résultats expose ce qui s'avère être des éléments de continuité majeurs transversaux. Ces huit éléments de continuité majeurs, soit finalement les résultats principaux de notre recherche, se détaillent ainsi: (1) Le développement de l'individu est au coeur des préoccupations de tous les programmes; (2) Les relations interpersonnelles sont toujours travaillées; (3) Bien qu'on touche des savoirs davantage théoriques, ce sont surtout des aptitudes et des habiletés qu'on désire développer en morale et en éthique; (4) L'évaluation formative est prédominante sur l'évaluation sommative, bien que celle-ci soit également utilisée; (5) Les valeurs et les normes composent une partie du contenu de tous les programmes; (6) Le développement du jugement (moral, éthique, critique) est une constante; (7) On s'attend à ce que l'élève soit actif dans le développement de son jugement; (8) L'enseignant a plusieurs rôles, les plus importants étant d'être un motivateur, une personne ressource et un modèle. Parce qu'ils marquent une cassure certaine entre l'enseignement de l'éthique et l'enseignement de la morale, certains éléments de rupture retiennent également l'attention : (1) La place et le rôle de la religion; (2) La question du positionnement. En conclusion, cette recherche théorique permet de faire le pont entre l'enseignement moral et l'enseignement de l'éthique, exposant entre autres ce qui peut être transféré du premier vers le second.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ernst Jünger und der mythos des "Neuen Menschen". Eine analyse des Frühwerks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Studie wird die Entwicklung der Ausgaben und Inanspruchnahme von Leistungen in der sozialen Pflegeversicherung in den Jahren 1997 bis 2001 analysiert. Grundlage der Analyse sind die Finanz- und Leistungsdaten der sozialen Pflegeversicherung. Die Analyse führt zu dem Ergebnis, dass das zenrale Problem der Pflegeversicherung nicht auf der Ausgabenseite liegt, sondern auf der Einnahmeseite. Ebenso wie in der gesetzlichen Krankenversicherung ist seit längerer Zeit eine Erosion der Einnahmegrundlage feststellbar, die immer wieder zu Beitragssatzerhöhungen gezwungen hat. Die beitragspflichtigen Einnahmen der Mitglieder halten nicht mit der gesamtwirtschaftlichen Entwicklung Schritt. Auf der Ausgabenseite ist besonders auffällig, dass der Anteil der Pflegebedürftigen in Pflegeheimen überproportional zugenommen hat. In einzelnen Altersgruppen stieg ihre Zahl in nur vier Jahren um bis zu 60%. Die höchsten Steigerungsraten traten deutlich unterhalb der Altersgrenze von 65 Jahren auf. Diese Entwicklung ist insofern sehr problematisch, als Pflegebedürftige und Angehörige die Versorgung in der häuslichen Umgebung eindeutig bevorzugen. In der Studie wird auf Grundlage vorliegender Forschungsergebnisse zur Situation von Pflegebedürftigen und pflegenden Angehörigen der Frage nachgegangen, welches die Ursachen für den überproportionalen Anstieg der Inanspruchnahme von Pflege in Heimen sein könnten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hintergrund: Seit Mitte der 1990er Jahre findet ein Stellenabbau in Krankenhäusern statt, von dem insbesondere auch der Pflegedienst betroffen ist. Obwohl die Tatsache seit längerem bekannt ist, fehlt es noch an einer gründlichen Analyse und Aufbereitung der verfügbaren Daten, um sich ein fundiertes Bild über den Umfang, die Entwicklung, Ursachen und Auswirkungen machen zu können. Methoden: Primäre Datengrundlage sind die Daten der Krankenhausstatistik sowie der Gesundheitsausgabenrechnung des Statistisches Bundesamtes. Ergebnisse: Die Analyse führt zu dem Ergebnis, dass zwischen 1995 und 2005 insgesamt ca. 104.000 Vollzeitstellen für nicht-ärztliches Personal in Allgemeinkrankenhäusern abgebaut wurden. Der ärztliche Dienst wurde hingegen um ca. 19.000 Vollkräfte ausgebaut. Im Saldo ergibt dies einen Gesamtstellenabbau von ca. 85.000 Vollkräften. Der größte Teil des Stellenabbaus entfiel mit ca. 44.000 Vollzeitstellen auf den Pflegedienst. Im Jahr 2005 lag die Zahl der Vollkräfte im Pflegedienst der Allgemeinkrankenhäuser um 13,7 % unter dem Wert des Jahres 1995 und sogar noch unter dem Wert des Jahres 1991, als über einen Pflegenotstand in Krankenhäusern gesellschaftlich diskutiert wurde. Eine Analyse der Kostendaten der Allgemeinkrankenhäuser zeigt, dass der Stellenabbau im Pflegedienst nicht allein durch die Budgetdeckelung und Einführung des DRG-Systems erklärt werden kann. Mehr als die Hälfte des Stellenabbaus wäre auf Grund der allgemeinen Budgetentwicklung nicht erforderlich gewesen, sondern erfolgte offenbar, um im Rahmen einer internen Umverteilung Mittel für andere Zwecke freizusetzen. Gewinner der internen Umverteilung war der ärztliche Dienst. Vor dem Hintergrund der Ergebnisse zahlreicher internationaler Studien muss davon ausgegangen werden, dass der Stellenabbau bereits negative Auswirkungen auf die Qualität der Patientenversorgung hat. Die Ergebnisse internationaler Forschung zu diesem Thema weisen darauf hin, dass eine niedrigere Personalbesetzung in Pflegedienst das Risiko erhöht, als Patient im Krankenhaus eine schwerwiegende Komplikation zu erleiden oder sogar zu versterben. Schlussfolgerungen: Es besteht dringender Handlungsbedarf, da sich die Personalbesetzung des Pflegedienstes in Allgemeinkrankenhäusern seit mehr als 10 Jahren in einer Abwärtsspirale befindet und mit weiterem Stellenabbau zu rechnen ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ein sehr großer Anteil der in Rechensystemen auftretenden Fehler ereignet sich im Speicher. In dieser Arbeit wird ein zerlegungsorientiertes Modell entwickelt, das die Wechselwirkungen zwischen Speicherfehlern und Systemleistung untersucht. Zunächst wird das Speicherverhalten eines Auftrags durch ein mehrphasiges Independent-Reference-Modell charakterisiert. Dies dient als Grundlage eines Modells zum Auftreten von Störungen, in das Lastcharakteristika wie die Auftrags-Verweildauer, die Seitenzugriffs-Rate und die Paging-Rate eingehen. Anschließend kann die Wahrscheinlichkeit, mit der ein Speicherfehler entdeckt wird, berechnet werden. Die zur Behandlung von Speicherfehlern erforderlichen Maßnahmen bestimmen die mittlere durch Fehler induzierte Last. Die Wechselwirkungen zwischen Fehler- und Leistungsverhalten werden durch ein System nichtlinearer Gleichung beschrieben, für dessen Lösung ein iteratives Verfahren abgeleitet wird. Abschließend wird mit ausführlichen Beispielen das Modell erläutert und der Einfluß einiger Modell-Parameter auf Leistungs- und Zuverlässigkeitskenngrößen untersucht.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Istanalyse der Kundengruppe „Studenten“ durch schriftliche Befragung zu folgenden Teilbereichen: I. Lebens-und Studiensituation II.Beurteilung von Studium und Lehre III.Allgemeine Angaben Kurzfristiges Ziel der Analyse war es, Stärken und Schwächen des Fachbereichs Wirtschaft aus Sicht der Studenten zu erkennen. Mittelfristiges Ziel war es, ein Marketingkonzept für den Fachbereich zu entwickeln.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Seit einigen Jahren wird zunehmend intensiver über das Angebot und den Bedarf an Fachkräften in der Pflege diskutiert. Dazu wurden bereits eine Reihe von Studien und Prognosen veröffentlicht, die allerdings zu sehr unterschiedlichen Ergebnissen kamen. In der öffentlichen wie auch in der wissenschaftlichen Diskussion sind deshalb gegenwärtig eine Vielzahl unterschiedlicher Zahlen anzutreffen. Die Unterschiede sind allerdings nicht nur auf methodische Unterschiede zurückzuführen, sondern vor allem auch darauf, dass es bislang an zuverlässigen und ausreichend differenzierten Daten amtlicher Statistiken zur Gesamtzahl der Beschäftigten in Pflegeberufen mangelt. Zwar bietet die Gesundheitspersonalrechnung (GPR) des Statistischen Bundesamtes einrichtungsübergreifende Angaben zur Gesamtzahl der Beschäftigten in Pflegeberufen, diese sind jedoch zum einen nicht ausreichend differenziert und basieren zum anderen zu einem wesentlichen Teil auf einer Hochrechnung von Ergebnissen der 1 %-Haushaltsstichprobe des Mikrozensus. Die Angaben der GPR sind darum mit dem Risiko behaftet, dass sie aufgrund von Schätzfehlern die tatsächliche Zahl der Beschäftigten über- oder unterschätzen. Zuverlässigere Angaben zur Beschäftigung in Pflegeberufen bieten Teilstatistiken des Gesundheitswesens, die ihre Daten auf dem Wege einer Vollerhebung mit gesetzlicher Auskunftspflicht der befragten Einrichtungen gewinnen. Dies sind die Krankenhausstatistik, die Statistik der Vorsorge- und Rehabilitationseinrichtungen und die Pflegestatistik. In der vorliegenden Studie werden deren Daten erstmals zu einer Gesamtstatistik der Pflegeberufe zusammengeführt. Das Ergebnis ist eine Datenaufbereitung zur Entwicklung und zum Stand der Beschäftigung in Pflegeberufen in Deutschland im Zeitraum 1999-2009, die nicht nur Zahlen zur Gesamtbeschäftigung bietet, sondern auch differenziert nach einzelnen Pflegeberufen und Versorgungsbereichen (Krankenhaus, Rehabilitationsbereich, ambulante Pflegeeinrichtungen und Pflegeheime). Die Analyse der zusammengeführten Daten führt zu einer Reihe von Ergebnissen, die insbesondere auch für die gesundheitspolitische Diskussion von Bedeutung sind.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En alimentation animale, l’utilisation adéquate des aliments nécessite une connaissance précise des valeurs nutritionnelles de leurs composantes, dont celle en acides aminés. Cependant, ces valeurs nutritionnelles dépendent de la teneur en acides aminés essentiels (AAE) totaux et de la digestibilité iléale standardisée (DIS) de ces AAE. Cette dernière varie en fonction de plusieurs facteurs, dont l’origine botanique des graines, les conditions de culture des récoltes, le stockage des aliments, les traitements physico-chimiques appliqués aux grains, les facteurs antinutritionnels (FANs) et les techniques expérimentales utilisées pour le dosage et l’estimation de la digestibilité des AAE. Une approche par méta-analyse a permis d’établir des modèles de prédiction de la valeur nutritionnelle en AAE des ingrédients à partir de leur composition chimique en considérant la protéine brute (PB), les AAE totaux, la teneur en fibre (Acid Detergent Fiber (ADF), Neutral Detergent Fiber (NDF) et Fibre Brute (FB)) et les FANs comme les inhibiteurs de la trypsine. En se référant à l’analyse graphique et statistique, les données ont été réparties en 4 groupes : 1) les tourteaux (tourteau de soja, colza/canola et coton); 2) les légumineuses (féveroles, lupins, pois et soja); 3) les céréales (blé, orge, avoine, sorgho et maïs); 4) les drêches de distilleries (blé et maïs). Ainsi, un modèle général ajusté en fonction du type d’ingrédients a été généré et les facteurs de variation de la digestibilité en AAE ont été identifiés. Pour les tourteaux, la DIS des AAE est réduite par un accroissement de la teneur en NDF, tandis que la DIS des AAE de la féverole, pois et lupin est principalement influencée par la teneur en PB et en FANs. Concernant les graines de soja la DIS des AAE est réduite par une hausse de la teneur en fibre (FB et ADF). Enfin pour les céréales et les sous- produit de céréales telles que les drêches, la PB et les fibres (ADF ou NDF) étaient les meilleurs nutriments pour prédire la DIS des AAE. Ces résultats démontrent que la DIS des AAE peut être prédite avec précision à partir de la composition chimique pour la plupart des ingrédients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les réseaux véhiculaires mobiles, ou Vehicular Ad-hoc NETworks (VANETs), existent depuis les années 80, mais sont de plus en plus développés depuis quelques années dans différentes villes à travers le monde. Ils constituent un apport d’informations aux réseaux routiers grâce à la mise en place de communications entre ses constituants : principalement les véhicules, mais aussi certaines infrastructures de bords de routes liées directement aux automobilistes (feux de circulation, parcomètres, infrastructures spécialisées pour les VANETs et bien d’autres). L’ajout des infrastructures apporte un support fixe à la dissémination des informations dans le réseau. Le principal objectif de ce type de réseau est d’améliorer la sécurité routière, les conditions de circulations, et d’apporter aux conducteurs et aux passagers quelques applications publicitaires ou de divertissement. Pour cela, il est important de faire circuler l’information de la manière la plus efficace possible entre les différents véhicules. L’utilisation des infrastructures pour la simulation de ces réseaux est bien souvent négligée. En effet, une grande partie des protocoles présentés dans la littérature simulent un réseau ad-hoc avec des noeuds se déplaçant plus rapidement et selon une carte définie. Cependant, ils ne prennent pas en compte les spécificités même d’un réseau véhiculaire mobile. Le routage de l’information dans les réseaux véhiculaires mobiles utilise les infrastructures de façon certes opportuniste, mais à terme, les infrastructures seront très présentes dans les villes et sur les autoroutes. C’est pourquoi nous nous sommes concentrés dans ce mémoire à l’étude des variations des différentes métriques du routage de l’information lors de l’ajout d’infrastructures sur une autoroute avec l’utilisation du protocole de routage AODV. De plus, nous avons modifié le protocole AODV afin d’obliger les messages à emprunter le chemin passant par les infrastructures si celles-ci sont disponibles. Les résultats présentés sont encourageants, et nous montrent qu’il est important de simuler les réseaux VANETs de manière complète, en considérant les infrastructures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’immunopathogenèse de l’infection au VIH-1 est principalement causée par la déplétion des LT CD4 (lymphocytes T-CD4). Cette mort des LT CD4 dépend de plusieurs facteurs comme la lyse des LT CD4 infectés et la présence de vésicules extracellulaires et d’exosomes libérées par les cellules dendritiques et les LT CD4 infectés au VIH-1. L’analyse protéomique des exosomes issus des cellules dendritiques mises en culture avec le VIH-1 a révélé la présence de molécules pro-apoptotiques comme le Dap-3 (Death Associated Protein 3). Nous avons proposé comme hypothèse que le Dap-3 puisse être contenu dans d’autres types de vésicules extracellulaires et que le Dap-3 vésiculaire contribue à la déplétion des LT CD4. Après avoir optimisé l’immunobuvardage avec l’anti-Dap-3, nous avons déterminé la présence de Dap-3 dans les vésicules extracellulaires issues des cellules RAJI-CD4-DCIR infectées au VIH-1. L’utilisation de gradients de vélocité nous a permis d’observer la présence de Dap-3 dans les fractions du gradient contenant les exosomes issus des cellules RAJI-CD4-DCIR infectées, mais également dans d’autres fractions du gradient de vélocité encore non caractérisées. Chez les patients, nous avons montré une hétérogénéité des vésicules extracellulaires dans les fractions du gradient de vélocité issues des plasmas des patients VIH-1+. Ces résultats indiquent la présence de plusieurs populations de vésicules extracellulaires séparées par la méthode du gradient de vélocité. Enfin, la transfection des cellules RAJI-CD4-DCIR et des cellules dendritiques a été mise au point avec les ARN anti-sens de Dap-3 afin de produire éventuellement des vésicules Dap-3 négatives. Ce projet de recherche aura permis de valider les outils nécessaires à la poursuite de l’étude du rôle de Dap-3 dans la pathogenèse de l’infection au VIH-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Report produced as part of the Green Logistics project (EPSRC and Department for Transport funded). Light goods vehicles play a key role in providing goods and services to businesses and other organisations in Britain. In order to better understand the relationship between costs and benefits of LGV operations it is necessary to gain a more detailed appreciation of the roles that these vehicles are fulfilling. This report aims to provide a better understanding of this sector by examining LGV fleet and operations in terms of their characteristics, utilisation and efficiency and purpose. Important potential external impacts of LGVs are also considered.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The reef levels of the gulf of skoura belong to the reef formation of the Upper Miocene of the South-Rifan straits. A detailed analysis of the vertical distribution of various forms of colonies has led to the establishment of precise coral morphologies zonation. This palaeoecological approach leads us to distinguish between two environments in the Skoura gulf, probably corresponding to two reef episodes. The palaeogeographical implications (relationships between the Atlantic ocean and the Mediterranean sea) will be pointed out.