192 resultados para Précision
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Introduction : Les accéléromètres sont actuellement les appareils les plus utilisés pour mesurer le niveau d’activité physique, et ce, parce qu'ils évaluent les niveaux d'activité physique de façon objective. Toutefois, les mouvements humains sont difficiles à mesurer, et de nombreuses limitations doivent être prises en considération pour la bonne utilisation des accéléromètres. Les études présentées s’intéressent donc à la validité de la fonction podomètre des accéléromètres ainsi qu’à la validation de la composante accéléromètre d’un nouvel appareil multicapteur (SenseDoc). Méthode : Les sujets ayant participé à la première étude, qui consistait en la validation de la fonction podomètre des accéléromètres, ont marché sur un tapis roulant à trois vitesses différentes (2,5 km/h, 3,5 km/h et 4,8 km/h) pendant 5 minutes par palier. Un accéléromètre (ActiGraph GT3X) porté à la ceinture a enregistré le nombre de pas tandis qu'une caméra a enregistré la marche des participants. Pour la seconde étude, les participants portaient un accéléromètre Actigraph et un SenseDoc à la hanche. Les données brutes des accéléromètres et la mesure de la consommation d’oxygène par calorimétrie indirecte ont été mesurées lors de 14 activités réalisées en laboratoire allant de sédentaires à vigoureuses. Résultats : La première étude indique que les accéléromètres ont détecté seulement 53 % des pas à 2,5 km/h, 82 % à 3,5 km/h et 91 % à 4,8 km/h pour les personnes non obèses. Pour les personnes obèses, l'accéléromètre a détecté 47 % des pas à 2.5 km/h, 67 % à 3.5 km/h et 100 % à 4.8 km/h, des résultats significativement différents des personnes non obèses. La seconde étude confirme pour sa part que le SenseDoc est un outil valide de mesure du niveau d’activité physique. Les accéléromètres possèdent une bonne capacité prédictive de la dépense énergétique avec des valeurs de R carré de 0,84 et 0,80 respectivement pour l'Actigraph et le SenseDoc. Conclusion : À vitesse de marche lente, les accéléromètres sous-estiment le nombre de pas, et ce, dans une plus large mesure chez les personnes obèses que chez les personnes non obèses. Également, une méthode valide et transparente de transformation de données brutes d’accélérométrie a été divulguée dans l’étude avec le SenseDoc. Les travaux présentés dans ce mémoire visent à améliorer l’utilisation en milieu clinique et en recherche des accéléromètres et ouvrent la voie à une plus grande uniformité entre les études utilisant différents types d’accéléromètres.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Vol. 2, 10. livr., 1891: Catalogue des hauteurs suisses.
Resumo:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
Resumo:
La pomme de terre est l’une des cultures les plus exigeantes en engrais et elle se cultive généralement sur des sols légers ayant de faibles réserves en N, P, K, Ca et Mg. Ces cinq éléments sont essentiels à la croissance des plants, à l’atteinte des bons rendements et à l’obtention de bonne qualité des tubercules de pomme de terre à la récolte et à l’entreposage. La recherche d’un équilibre entre ces cinq éléments constitue l’un des défis de pratiques agricoles de précision. La collecte de 168 échantillons de feuilles de pommes de terre selon une grille de 40 m × 60 m (densité d’échantillonnage de 2,9 échantillons ha-1) dans un champ de pommes de terre de 54 ha au Saguenay-Lac-Saint-Jean et la détermination de leur teneur en N, P, K, Ca et Mg au stade début floraison, jumelée à une lecture de l’indice de chlorophylle avec SPAD-502, a permis d’établir les faits suivants : parmi tous les indicateurs de diagnostic foliaire selon les 3 approches connues VMC, DRIS et CND, le contraste logarithmique entre les deux éléments nutritifs type anioniques (N et P) vs les trois éléments type cationiques (K, Ca et Mg), noté ilr (log ratio isométrique) du coda (Compositional Data Analysis) est l’indicateur le plus fortement relié à la lecture SPAD-502 (r=0,77). L’étude géostatique spatiale appliquée au Coda a montré une grande similitude entre le CND-ilr (anions vs cations) et la lecture SPAD-502. Ce CND-ilr devrait être interprété en termes de fertilisation de démarrage (N+P), en lien avec les apports des cations sous forme d’engrais (K, Ca et Mg) ou d’amendement (Ca et Mg).
Resumo:
Fracture behaviour of notched and un-notched plain concrete slender beams subjected to three-point or four-point bending is analyzed through a one-dimensional model, also called Softening Beam Model. Fundamental equations of equilibrium are used to develop the model. The influence of structural size in altering the fracture mode from brittle fracture to plastic collapse is explained through the stress distribution across the uncracked ligament obtained by varying the strain softening modulus. It is found that at the onset of fracture instability, stress at the crack tip is equal to zero. The maximum load and fracture load are found to be different and a unique value for the fracture load is obtained. It is shown that the length of the fracture process zone depends on the value of the strain softening modulus. Theoretical limits for fracture process zone length are also calculated. Several nonlinear fracture parameters, such as, crack tip opening displacement, crack mouth opening displacement and fracture energy are computed for a wide variety of beam specimens reported in the literature and are found to compare very well with experimental and theoretical results. It is demonstrated that by following a simple procedure, both pre-peak and post-peak portions of load versus crack mouth opening displacement curve can be obtained quite accurately. Further, a simple procedure to calculate the maximum load is also developed. The predicted values of maximum load are found to agree well with the experimental values. The Softening Beam Model (SBM), proposed in this investigation is very simple and is based on rational considerations. It can completely describe the fracture process from the beginning of formation of the fracture process zone till the onset of fracture instability.A l'aide d'un modèle unidimensionnel dit ldquoSoftening Beam Modelrdquo (SBM), on analyse le comportement à rupture de poutres élancées pleines entaillées ou non, soumises en flexion en trois ou quatre points. Des équations fondamentales d'équilibre sont utilisées pour développer le modèle. On explique l'influence de la taille du composant sur l'altération du mode de rupture en rupture fragile et en effondrement plastique par la distribution par la distribution des contraintes sur le ligament non fissuré lorsque varie le module d'adoucissement. On trouve que la contrainte à l'extrémité de la fissure est nulle est nulle au début de l'instabilité de la rupture. La charge maximum et la charge à la rupture sont trouvées différentes, et on obtient une valeur unique de la charge à la rupture. On montre que la longueur de la zone concernée par le processus de rupture d'pend de la valeur du module d'adoucissement. On calcule également les limites théoriques de longueur de cette zone. Divers paramètres de rupture non linéaire sont calculés pour une large gamme d'éprouvettes en poutres reprises dans la littérature; on trouve qu'il existe une bonne concordance avec les résultats expérimentaux et théoriques. On démontre qu'en suivant une procédure simple on peut obtenir avec une bonne précision la courbe reliant les portions avant et après le pic de sollicitation en fonction du COD de la fissure. En outre, on développe une procédure simple pour calculer la charge maximum. Les valeurs prédites sont en bon accord avec les valeurs expérimentales. Le modèle SBM proposé est très simple et est basé sur des considérations rationnelles. Il est susceptible de décrire complètement le processus de rupture depuis le début de la formation de la zone intéressée jusqu'à l'amorçage de la rupture instable.
Resumo:
[EUS] Ikerketa lan honen helburua entrenamendu programa baten ondoren elikagaien formek, anoak estimatzeko garaian duen eragina baloratzea da. Doitasun baxuenarekin estimaturiko elikagai amorfoak izan ziren, bai entrenamendu aurretik zein ondoren. Estimazioan eginiko akatsak txikitu egin ziren entrenamenduaren ondoren elikagai solido eta likidoetan, nahiz eta hilabete batzuk igaro ondoren akats hauek areagotu.
Resumo:
[EU]Azken urteetan argi geratu da gizakiak aurrera egiteko ezinbestekoa duela zehaztasuna. Teknologia berriak geroz eta bideratuagoak daude produktuen tamaina ahalik eta gehien murrizten edota produktu handien perdoiak nanometroetara hurbiltzeko ahaleginetan. Hau lortzeko bidean ezinbestekoa da elementu guztietan zehaztasuna limitera eramatea eta funtsean, honetan zentratuko da lan hau. Proiektu hau artikulazioen zehaztasuna hobetzeko tekniketan zentratuko da, gehiago zehaztuz, optika arloan lan egingo duen errobot baten artikulazioak analizatuko ditu. Artikulazioen zehaztasun optimoa lortzeko artikulazio hauek generazio berriko artikulazioak izatea pentsatu da, artikulazio flexible edo “flexible joints” izenekoak. Artikulazio hauek, orain artekoak ez bezala, ez dituzte bi elementu elkartuko, elementu bakarrez osatuta egongo dira eta bere buruarekiko errotazioz eta flexioz egingo dute lan honela, ohiko artikulazioek funtzionamendu egokirako behar duten lasaiera baztertu egingo da zehaztasun hobeak lortuz. Lan honetan zehar artikulazio flexible mota bat aukeratuko da eta geometriaren hainbat parametroren eta material ezberdinen aurrean edukiko duen jokaera analizatuko da. Aipatu beharra dago, artikulazio flexibleak azken hamarkadetan garatutako ideiak direnez beraiei buruzko informazioa oso pribatizatua dagoela eta ez dela lan erraza hau interneten edota liburutegietan topatzea. Ala ere, hauen analisirako aurkitu den informazio guztia eranskinetan dauden artikuluetan dago. Bertatik atera den informazio garrantzitsuena elementu finituen bitartezko analisian geometriak eduki beharreko baldintza batzuk eta ulermen eta aldaratze egokia lortzeko komeni diren datuak zehaztea izan da. Interesgarria da aipatzea analisiaren ondorioak konstante elastiko eta biratu dezaketen angelu maximoaren bitartez egin direla.
Resumo:
En alimentation animale, l’utilisation adéquate des aliments nécessite une connaissance précise des valeurs nutritionnelles de leurs composantes, dont celle en acides aminés. Cependant, ces valeurs nutritionnelles dépendent de la teneur en acides aminés essentiels (AAE) totaux et de la digestibilité iléale standardisée (DIS) de ces AAE. Cette dernière varie en fonction de plusieurs facteurs, dont l’origine botanique des graines, les conditions de culture des récoltes, le stockage des aliments, les traitements physico-chimiques appliqués aux grains, les facteurs antinutritionnels (FANs) et les techniques expérimentales utilisées pour le dosage et l’estimation de la digestibilité des AAE. Une approche par méta-analyse a permis d’établir des modèles de prédiction de la valeur nutritionnelle en AAE des ingrédients à partir de leur composition chimique en considérant la protéine brute (PB), les AAE totaux, la teneur en fibre (Acid Detergent Fiber (ADF), Neutral Detergent Fiber (NDF) et Fibre Brute (FB)) et les FANs comme les inhibiteurs de la trypsine. En se référant à l’analyse graphique et statistique, les données ont été réparties en 4 groupes : 1) les tourteaux (tourteau de soja, colza/canola et coton); 2) les légumineuses (féveroles, lupins, pois et soja); 3) les céréales (blé, orge, avoine, sorgho et maïs); 4) les drêches de distilleries (blé et maïs). Ainsi, un modèle général ajusté en fonction du type d’ingrédients a été généré et les facteurs de variation de la digestibilité en AAE ont été identifiés. Pour les tourteaux, la DIS des AAE est réduite par un accroissement de la teneur en NDF, tandis que la DIS des AAE de la féverole, pois et lupin est principalement influencée par la teneur en PB et en FANs. Concernant les graines de soja la DIS des AAE est réduite par une hausse de la teneur en fibre (FB et ADF). Enfin pour les céréales et les sous- produit de céréales telles que les drêches, la PB et les fibres (ADF ou NDF) étaient les meilleurs nutriments pour prédire la DIS des AAE. Ces résultats démontrent que la DIS des AAE peut être prédite avec précision à partir de la composition chimique pour la plupart des ingrédients.
Resumo:
INTRODUCTION : La dyscalculie est un déficit spécifique d’apprentissage des mathématiques dont la prévalence s’étend de 1 à 10 %. La dyscalculie a des répercussions sur la scolarité et sur la vie quotidienne pouvant persister jusqu’à l’âge adulte et ainsi nuire à l’insertion professionnelle. Il existe actuellement deux grandes hypothèses cognitives pour expliquer la dyscalculie développementale : l’hypothèse d’un trouble cognitif général tel qu’un trouble de la mémoire de travail et l’hypothèse d’un trouble cognitif spécifiquement numérique. OBJECTIFS : L’objectif général de cette thèse doctorale est d’évaluer les déficits cognitifs numériques impliqués dans la dyscalculie développementale chez des enfants franco-québécois âgés entre huit et neuf ans, scolarisés en 3e année du primaire (1ère année du 2e cycle). Dans un premier temps, la thèse vise à recenser les écrits (étude 1) portant sur les déficits cognitifs numériques impliqués dans la dyscalculie. Ensuite, elle a pour objectifs spécifiques l’étude des capacités de traitement des quantités non symboliques (étude 2) et symboliques arabe et orale (étude 3), ainsi que de l’intégrité des représentations numériques sous forme de ligne numérique (étude 4). MÉTHODE : Des études comparatives d’un groupe d’enfants en difficulté mathématique (groupe dyscalculique) et d’un groupe d’enfants sans difficulté mathématique ont été réalisées. Des tâches faisant intervenir le code analogique (i.e. ensemble de points), le code arabe, le code oral, et la ligne numérique des nombres ont été administrées dans le but de mesurer les capacités de traitement, de production, et de reconnaissance des nombres. RÉSULTATS : La recension de la littérature permet d’établir qu’il n’existe aucun consensus quant aux déficits cognitifs numériques impliqués dans la dyscalculie (étude 1). Les résultats des études expérimentales montrent que les enfants dyscalculiques présentent des difficultés à traiter avec précision les petites quantités analogiques (étude 2) mais des habiletés préservées pour traiter approximativement les grandes quantités (étude 4). Ils présentent aussi des difficultés à traiter les nombres symboliques (arabe, oral) qui se manifestent par des atteintes de reconnaissance, de traitement et de production des nombres (études 3 et 4). Leur acuité numérique est également plus faible lorsqu’ils doivent traiter cognitivement les nombres symboliques sur une ligne numérique (étude 4). CONCLUSION : Les enfants dyscalculiques présentent un déficit du sens du nombre au niveau du traitement des petites quantités par le Système Numérique Précis, ainsi qu’un déficit de traitement des nombres symboliques. Ce déficit se manifeste à la fois par un déficit de reconnaissance, un déficit d’accès au sens du nombre via les codes symboliques et une acuité plus faible de la ligne numérique lorsqu’elle implique les nombres symboliques.
Resumo:
La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.
Resumo:
Ce mémoire présente l’étude numérique d’un emballement de turbine hydraulique axiale à échelle modèle. Cet état transitoire est simulé du point de meilleur rendement jusqu’à l’atteinte de 95% de la vitesse d’emballement. Pour ce faire, une méthodologie numérique est développée à l’aide du logiciel commercial ANSYS CFX en utilisant une approche "Unsteady Reynolds Averaged Navier-Stokes" avec modèle de turbulence k-ε. Cette méthodologie numérique a été validée grâce à des mesures expérimentales de pression acquises en situation d’emballement sur les aubes d’une roue de turbine axiale étudiée au Laboratoire de Machines Hydrauliques de l’Université Laval. La validation des simulations numériques a été réalisée grâce à des comparaisons dans les domaines temporel et fréquentiel entre les pressions mesurées expérimentalement et calculées numériquement. Les analyses fréquentielles en transitoire ont été effectuées à l’aide de transformées en ondelettes afin de représenter l’évolution temporelle du spectre de fréquence. Des analyses qualitatives de phénomènes hydrauliques prenant place dans la turbine sont aussi présentées. Les analyses effectuées ont permis de confirmer le développement d’un tourbillon en précession par rapport à la roue dans l’aspirateur provocant les fluctuations de pression dominantes à des fréquences subsynchrones. La comparaison entre les données expérimentales et numériques a permis de valider une stratégie de simulation transitoire et d’en définir les limites en vue de prochaines simulations d’emballement. Des tests supplémentaires sont suggérés pour améliorer la précision ou le niveau de confiance de la méthode.
Resumo:
Résumé: Introduction : L'utilisation de méthodes endoscopiques peu invasives est en constante augmentation pour le traitement des lésions tumorales précoces de l'oesophage. Le but du traitement comprend l'éradication complète de tous les foyers de dysplasie ou de carcinome in situ, notamment dans les métaplasies intestinales de l'oesophage de Barrett, qui peuvent dégénérer en adénocarcinome. Plusieurs techniques d'ablation de la muqueuse oesophagienne (laser, argon plasma, electrocoagulation, photothérapie dynamique, résection endoscopique) ont été utilisées jusqu'à présent, mais aucune n'a vraiment donné entière satisfaction. Les techniques actuelles de résections endoscopiques par fibroscopie sont entre autres limitées par le grand nombre de séances nécessaires à l'éradication complète de la lésion et par la petite taille des fragments de muqueuse obtenus, ce qui rend l'analyse histologique difficile. Dans notre étude animale, nous avons évalué la faisabilité, l'efficacité et la sécurité d'une méthode de résection endoscopique à l'aide d'un nouvel oesophagoscope rigide. Matériel et méthode : Le résectoscope est formé d'un oesophagoscope rigide avec une fenêtre distale transparente à travers laquelle la muqueuse et une partie de la sous-muqueuse sont aspirées et ensuite réséquées avec une anse thermique. Les diverses fenêtres utilisées ont une taille comprise entre 2.2 et 4.4 cm. Le mouton a été choisi en raison de la ressemblance de son oesophage avec celui de l'humain en ce qui concerne l'épaisseur de son oesophage et sa structure histologique. Nous avons effectué 55 résections hémi-circonférentielles sur 21 animaux et 11 résections circonférentielles sur 11 autres. La Mitomycine-C, une substance qui inhibe la prolifération fibroblastique, a été utilisée dans 8 résections circonférentielles à différents intervalles de temps afin d'empêcher la survenue de sténoses oesophagiennes. Résultats : Toutes les résections hémi-circonférentielles ont permis d'obtenir des fragments compacts de tissu avec des bords nets, ce qui permet une excellente étude histologique. La surface du tissu prélevé était en corrélation avec la taille de la fenêtre du resectoscope. Nous avons ainsi pu obtenir des fragments avec des dimensions comprises entre 6 et 12 cm2. Pour les résections circonférentielles, les tissus étaient obtenus en 2 parties, en inversant de 180° la position de l'appareil. La profondeur de la résection a été optimale dans 58 cas sur 65 avec une découpe précise au niveau de la sous-muqueuse sans lésion de la couche musculaire sous- jacente. Il n'y a pas eu de complications après les résections hémi-circonférentielles. Les complications engendrées par les résections circonférentielles (sténose, perforation) n'ont plus été rencontrées après application locale de Mitomycine-C administrée à des intervalles de temps bien précis. Conclusion : Notre méthode de résection endoscopique de la muqueuse oesophagienne offre une nouvelle approche très prometteuse par rapport aux options déjà disponibles. Elle apparaît supérieure en ce qui concerne la taille de tissu prélevé, la précision et régularité de la profondeur de résection, ainsi que la facilité et sûreté du diagnostic histologique et des marges de sécurité. Les résections hémi-circonférentielles se sont révélées sûres chez le modèle animal. Cette nouvelle technique mérite de plus amples investigations pour les résections circonférentielles avant son utilisation chez l'humain. Abstract: Background and Study Aims: We undertook this retrospective study to evaluate the frequency and prognosis of endoscopic treatment of laterally spreading tumors (LSTs) in the rectum. The recurrence rate for lesions of the lower rectum was compared with that of the upper rectum. Patients and Methods: During the period from July 1989 to June 2002, a total of 1237 rectal tumors were detected. LSTs accounted for 6.9% (85/1237) of all rectal tumors. A total of 224 tumors of the lower rectum were detected among the 1237 rectal tumors. LSTs accounted for 16.1 % (36/224) of all the lower rectal tumors. From 85 LST lesions, 67 were evaluated for their prognosis after endoscopic mucosal resection (EMR). Patients whose LSTs had been resected were followed up by endoscopy at the following frequencies: once 15 (22.4%); twice (more than 1 year), 20 (29.9%); three times (more than 3 years), 21(31.3%); and four times or more (more than 5 years), 11 (16.4%). Results: A total of 67 patients with endoscopically treated LSTs were followed up by endoscopy. We observed recurrences in two lesions of the upper rectum (2/38, 5.3%) and five lesions of the lower rectum (5/29, 17.2%) (P = 0.2364); all seven lesions were resected piecemeal. LSTs whose horizontal margin reached the pectinate line frequently recurred in the lower rectum, at a rate of 80% (4/5). However, all patients were completely cured by additional endoscopic resections, the greatest number of treatments being four. Conclusion: For early detection of recurrence and successful endoscopic cure, further colonoscopic examination within a few months after the first treatment is necessary.