972 resultados para Informatique mathématique
Resumo:
SCOPUS: ar.j
Resumo:
Fictitious personal names and toponyms are not infrequent in legal casenotes as used for didactic purposes nowadays. There is a long tradition of fictitious names being used in the legal literature. The problem with medieval or early modern legal (here, rabbinical) responsa is that if they are used as evidence for historical purposes, as though they were chronicles, confusion may occurs. Historian Eliezer Bashan showed that this is the case, indeed, with particular reference to rabbinical responsa from the Ottoman empire where Holy Land toponyms occur. He set forth several tentative rules to decide whether a toponym is there to literally refer to the place it names, or whether, instead, the name is used fictitiously. This paper formalizes the ruleset.
Resumo:
Cette étude vise à identifier les caractéristiques des usagers qui les amèneraient à mieux utiliser ou à utiliser de façon plus innovatrice les technologies de l'information mises à leur disposition. Afin de répondre à cet objectif, nous étudierons, en particulier, le rôle de deux traits de personnalité (le ludisme informatique et la propension innover) comme facteurs qui influencent l’étendue de l’utilisation des logiciels de soutien à l'enseignement dans un environnement universitaire. De plus, ces traits de personnalité seront intégrés aux modèles actuels de l’acception et de l’utilisation des systèmes d’information.
Resumo:
En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.
Resumo:
Les recherches menées en éducation permettent de constater que les technologies de l'information et de la communication ont des effets positifs sur plusieurs dimensions de l'élève. Pourtant, dans ce domaine, l'implantation de la micro-informatique s'effectue lentement. Le projet de recherche trace le portrait des conditions qui favorisent l'intégration des TIC en adaptation scolaire et démontre dans quelle mesure elles sont présentes selon les perceptions des enseignants au Québec. Les sujets sont des enseignants en adaptation scolaire à la commission scolaire de Montréal (CSDM). Le questionnaire et l'entrevue semi-structurée ont été utilisés pour la collecte de données. Les résultats de l'enquête sont présentés à partir d'une analyse quantitative et qualitative. Ils démontrent que des efforts ont été déployés pour fournir aux écoles des ressources matérielles et pour développer des attitudes et perceptions positives chez les enseignants. Cependant, les enseignants réclament davantage de formation ainsi qu'un soutien technique et pédagogique continu.
Resumo:
Cette étude de cas analyse l'intervention éducative d'un enseignant du primaire qui a mis en oeuvre un dispositif didactique et pédagogique intégrant de façon systématique l'informatique scolaire à une pédagogie du projet dans le but de mieux répondre aux besoins liés à l'apprentissage d'élèves provenant d'un milieu socioéconomiquement faible.Cette étude longitudinale (1998-2001) fait ressortir l'impact de l'agir professionnel sur la réussite scolaire. La problématique de notre recherche s'inscrit dans la foulée de la réforme en cours, dont l'une des visées est de contrer le retard scolaire au primaire et le risque d'échec et d'abandon scolaire précoce au secondaire. Quatre dimensions éclairent l'implémentation du dispositif: l'équité sociale, les changements épistémologiques, une orientation vers la socialisation et le rôle des TIC pour soutenir le développement des compétences transversales. Le cadre conceptuel s'appuie sur une perspective socioconstructiviste cohérente avec la théorie de l'anthropologie culturelle de Vygotsky (1978) pour qui l'apprentissage ne se fait pas seul, mais avec l'aide de pairs plus avancés en contexte de cognition située. La médiation de l'enseignant, par sa réflexion en action , en synchronie avec les besoins immédiats de ses élèves, établit le lien entre enseignant et apprenants, pour qu'ils puissent développer un esprit d'initiative, ainsi que la responsabilité et l'autonomie pour assumer leurs apprentissages. Une méthodologie mixte interreliant des méthodes qualitatives et quantitatives a exigé un recueil de données sur des dimensions descriptives et évaluatives. Des données de deuxième ordre, issues d'une recherche FCAR (98-NT-004), ont permis de dégager des caractéristiques spécifiques à la planification, à la gestion de classe et aux comportements de l'"enseignant-cible" en contexte de pédagogie du projet. Les résultats obtenus par les 23 élèves aux examens sommatifs de 6e année témoignent de l'efficacité de l'intervention. La présente étude pourrait avoir des retombées en tant que modèle pour d'autres chercheurs intéressés à étudier l'impact des TIC comme matériel didactique. Sur le plan de la pratique, ce type d'intervention serait un moyen efficace pour contrer le décrochage scolaire chez les élèves en mobilisant leurs capacités de s'adapter avec succès à leur environnement, malgré les facteurs de risque qui pourraient les inhiber.
Resumo:
Dans le cadre des travaux du Centre d'analyse et de traitement informatique du français québécois (CATIFQ) sur la caractérisation des textes de langue publique québécoise, la présente étude porte sur le vocabulaire sociopolitique en situation officielle au Québec. Cette étude est basée sur un corpus de mémoires présentés à la Commission Bélanger-Campeau sur l'avenir politique et constitutionnel du Québec. Constitué à partir d'une norme élaborée au CATIFQ, et permettant de ce fait la comparaison des données avec d'autres corpus similaires, le corpus Bélanger-Campeau compte 250 000 occurrences et 8355 vocables. Sa richesse, la synchronie de ses données et les critères de sa constitution en font un point de repère pertinent pour la description du français québécois. À partir de ce corpus, nous avons sélectionné les vocables de trois réseaux propres au questionnement constitutionnel et identitaire faisant l'objet de la Commission Bélanger-Campeau: le réseau des groupes humains (communauté, État, nation, pays, peuple, société), le réseau des options constitutionnelles (autonomie, fédéralisme, indépendance, souveraineté, statu quo) et le réseau identitaire (anglais, anglophone, autochtone, canadien, français, francophone, immigrant, québécois). Notre cadre théorique et méthodologique s'appuie sur des travaux antérieurs, mais l'analyse des trois réseaux du corpus Bélanger-Campeau s'est faite en vase clos. Puis nous avons comparé nos résultats aux définitions de dictionnaires français et québécois, de même qu'à des recherches antérieures touchant le vocabulaire sociopolitique. Nous concluons de cette démarche l'importance d'étudier les vocables en contexte, notamment en se penchant sur la cooccurrence, pour en cerner le plus objectivement possible les nuances sémantiques. De plus, l'analyse du corpus Bélanger-Campeau a permis la description de vocables et d'acceptions propres aux contextes québécois et canadien, et souvent absents des dictionnaires consultés, ou inadéquatement définis. Enfin, l'examen des cooccurrents nous a permis d'identifier nombre de collocations propres au français d'ici et caractéristiques de notre situation sociopolitique (peuple fondateur, projet de société, société distincte, fédéralisme renouvelé, souveraineté-association, Canada anglais, rêve canadien, canadien-anglais, canadien-français et fait français).
Resumo:
On présente dans ce mémoire la mesure de la statistique de photons des fluctuations électromagnétiques micro-ondes d’une jonction tunnel placée à ultra-basse température. En particulier, on déduit cettedite statistique en mesurant les cumulants des fluctuations de courant générées par une jonction tunnel polarisée en courant continu et photoexcitée par un signal haute fréquence. On utilise un amplificateur paramétrique Josephson en tant que premier maillon de la chaîne d’amplification en raison de son bruit près de la limite quantique. On développe aussi un modèle pour tenir compte de sa saturation, celle-ci étant apparente à des puissances de signal incident très faibles. C’est, à ma connaissance, la première fois qu’un tel amplificateur est utilisé pour étudier la physique au sein du bruit émis par un conducteur mésoscopique. Les résultats mettent en évidence l’apparition d’un excès dans le quatrième cumulant lorsque la photoexcitation s’effectue au double de la fréquence de mesure. Un développement mathématique simple nous permet d’associer cet excès à la statistique de photons, sous la forme d’une augmentation – à nombre de photons fixe – de la variance du nombre moyen de photons contenue dans le signal. C’est en fait une signature de l’émission de paires de photons corrélés par la jonction tunnel photoexcitée. Ces résultats font le pont entre ceux obtenus précédemment par notre groupe de recherche quant aux cumulants d’ordre supérieur du bruit et ceux associées aux parallèles entre l’optique quantique et les fluctuations de courant des dispositifs mésoscopiques. [Gasse et al. PRL 111, 136601 (2013) ; Forgues et al. Scientific Reports 3, 2869 (2013) ; Forgues et al. PRL 113, 043602 (2014)] Ils dressent un portait intéressant du bruit photoexcité en termes normalement associés à l’optique quantique.
Resumo:
INTRODUCTION : La dyscalculie est un déficit spécifique d’apprentissage des mathématiques dont la prévalence s’étend de 1 à 10 %. La dyscalculie a des répercussions sur la scolarité et sur la vie quotidienne pouvant persister jusqu’à l’âge adulte et ainsi nuire à l’insertion professionnelle. Il existe actuellement deux grandes hypothèses cognitives pour expliquer la dyscalculie développementale : l’hypothèse d’un trouble cognitif général tel qu’un trouble de la mémoire de travail et l’hypothèse d’un trouble cognitif spécifiquement numérique. OBJECTIFS : L’objectif général de cette thèse doctorale est d’évaluer les déficits cognitifs numériques impliqués dans la dyscalculie développementale chez des enfants franco-québécois âgés entre huit et neuf ans, scolarisés en 3e année du primaire (1ère année du 2e cycle). Dans un premier temps, la thèse vise à recenser les écrits (étude 1) portant sur les déficits cognitifs numériques impliqués dans la dyscalculie. Ensuite, elle a pour objectifs spécifiques l’étude des capacités de traitement des quantités non symboliques (étude 2) et symboliques arabe et orale (étude 3), ainsi que de l’intégrité des représentations numériques sous forme de ligne numérique (étude 4). MÉTHODE : Des études comparatives d’un groupe d’enfants en difficulté mathématique (groupe dyscalculique) et d’un groupe d’enfants sans difficulté mathématique ont été réalisées. Des tâches faisant intervenir le code analogique (i.e. ensemble de points), le code arabe, le code oral, et la ligne numérique des nombres ont été administrées dans le but de mesurer les capacités de traitement, de production, et de reconnaissance des nombres. RÉSULTATS : La recension de la littérature permet d’établir qu’il n’existe aucun consensus quant aux déficits cognitifs numériques impliqués dans la dyscalculie (étude 1). Les résultats des études expérimentales montrent que les enfants dyscalculiques présentent des difficultés à traiter avec précision les petites quantités analogiques (étude 2) mais des habiletés préservées pour traiter approximativement les grandes quantités (étude 4). Ils présentent aussi des difficultés à traiter les nombres symboliques (arabe, oral) qui se manifestent par des atteintes de reconnaissance, de traitement et de production des nombres (études 3 et 4). Leur acuité numérique est également plus faible lorsqu’ils doivent traiter cognitivement les nombres symboliques sur une ligne numérique (étude 4). CONCLUSION : Les enfants dyscalculiques présentent un déficit du sens du nombre au niveau du traitement des petites quantités par le Système Numérique Précis, ainsi qu’un déficit de traitement des nombres symboliques. Ce déficit se manifeste à la fois par un déficit de reconnaissance, un déficit d’accès au sens du nombre via les codes symboliques et une acuité plus faible de la ligne numérique lorsqu’elle implique les nombres symboliques.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.
Resumo:
Relatório de Estágio apresentado à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ensino do 1.º e 2.º ciclo do Ensino Básico
Resumo:
RESUMO: Desde 1976 que as Forças Armadas desenvolvem acções de prevenção do consumo de drogas e álcool. Na década de 80 foi criada capacidade laboratorial e deu-se início a um programa de rastreios toxicológicos. No quinquénio 2001 a 2005, as proporções de resultados positivos, associando todos os tipos de rastreio, variaram entre 3,7% e 1,5%. De Outubro de 2006 a Julho de 2007 realizou-se um estudo analítico transversal, para estimar a prevalência do consumo de drogas (canabinóides, opiáceos, cocaína e anfetaminas) num dos Ramos das Forças Armadas, com base nos despistes realizados pelo seu laboratório. Foi utilizada uma amostra aleatória simples de 1039 militares, profissionais (QP) e contratados (RC), no activo e de ambos os sexos. Desde a nomeação dos militares a rastrear, passando pela cadeia de custódia das amostras até à obtenção do resultado foi utilizado apoio informático específico. O processo de pesquisa utilizou duas técnicas de triagem por imunoensaio e tecnologia de confirmação por GC/MS, de acordo com as recomendações europeias, permitindo estabelecer uma metodologia standard para organizações e empresas. A prevalência estimada, de consumidores de droga, foi de 3,8/1.000, para um erro de 0,37%. O número de casos registado (4) não permitiu a utilização de testes estatísticos que conduzissem à identificação de características determinantes da positividade, mas não deixou de revelar aspectos inesperados. A observação de séries de casos e a realização regular de estudos epidemiológicos, que ajudem a redefinir grupos alvo e a perceber a dimensão, as determinantes e as consequências do consumo de drogas é sugerida, em conclusão.--------------------------------------- RÉSUMÉ: Depuis 1976, les Forces Armées mettent au point des mesures visant à prévenir la consommation de drogues et d'alcool. En 1980, fut créé capacité laboratoriel et ont ensuite commencé un programme de dépistage toxicologique. Au cours des cinq années allant de 2001 à 2005, les proportions de consommateurs, impliquant tous les types de dépistage, allaient de 3,7% à 1,5 %. D'octobre 2006 à juillet 2007, une étude analytique transversale a été organisée pour évaluer la prévalence de l’usage de drogues (cannabis, opiacés, cocaïne et amphétamines) dans une branche de les Forces Armées, basée sur les dépistages faites par un laboratoire militaire, à l'aide d'un échantillon aléatoire de 1039 militaires, professionnels (QP) et sous contract (RC), à l’actif et des deux sexes. Tout au long du procès, de la nomination des donneurs, en passant par la chaine de garde des échantillons, jusqu’à obtention du résultat, il fut employé un appui informatique sécurisé. Le processus de recherche employa deux techniques de tri par imunoessay et la technologie de confirmation GC/MS, selon les recommandations européennes, permettant d'établir une méthodologie standard pour les organisations et les entreprises. La prévalence estimée fut de 3,8/1.000 pour une marge d’erreur de 0,37%. Le nombre de cas enregistrés (4) n'autorise pas l'utilisation de testes statistiques de menant à l'identification de caractéristiques déterminant de la positivité, mais il permet à révéler des aspects inattendus. L'observation de séries de cas et la tenue régulière d’études épidémiologiques, qui contribuent à redéfinir les groupes cibles et de comprendre l'ampleur, les déterminants et les conséquences de l'usage de drogues, est suggéré, en fin de compte.--------------------------------------- ABSTRACT: Since 1976, the Armed Forces, have been developing measures to prevent the use of drugs and alcohol. In 1980, was created laboratory facility which then started a program of toxicological screenings. In the five years running from 2001 to 2005, the proportions of consumers, involving all types of screening, ranged from 3,7% to 1,5%. From October 2006 to July 2007, a cross-sectional study was held to estimate the prevalence of drug use (cannabinoids, opiates, cocaine and amphetamines) in one branch of the Portuguese Armed Forces, based on laboratory screenings, using a random sample of 1039 military, professional (QP) and enlisted (RC), active-duty and of both sexes. Specific computer support was used all the way, from the appointment, including the chain of custody of samples, to the obtaining of the result. The process of search used two techniques for sorting by immunoassay and confirmation technology GC/MS, according to European recommendations, allowing to establish a standard methodology for organizations and companies. The estimated prevalence of drug users was 3.8/1.000 for a 0.37% error (95% confidence interval). The number of cases registered (4) does not permit use of statistical testing leading to the identification of characteristics weighing in the establishing to extrapolate for the population, but it allows revealing unexpected aspects. The observation of series of cases and the regular holding of epidemiological studies, which help redefine target groups and to understand the extent, the determinants and consequences of drug use, is suggested, in conclusion.
Resumo:
Introduction:¦L'incidence annuelle du cancer de l'ovaire en Suisse est de 600 cas, il touche principalement les femmes âgées de plus de 60 ans. Le cancer de l'ovaire est aujourd'hui la 1ère cause de mortalité par cancer gynécologique chez la femme. Le but de notre recherche, est de créer une base de données de toutes les¦patientes atteintes d'un cancer de l'ovaire et hospitalisées au CHUV pour la prise en charge de leur maladie.¦Cette étude rétrospective monocentrique nous permettra en premier lieu d'analyser les caractéristiques de¦cette tumeur présentées par les patientes, les traitements instaurés pour traiter ce cancer et les taux de¦récidives et de survie des patientes en fonction de ces variables.¦Méthodologie:¦Analyse rétrospective de 147 patientes diagnostiquées d'un cancer de l'ovaire et hospitalisées au CHUV entre¦septembre 2001 et mars 2010 pour la prise en charge de leur tumeur ovarienne. Utilisation du programme informatique ARCHIMED qui contient les dossiers médicaux de toutes les patientes inclues dans l'étude et création de 2 bases des données. La 1ère base de données regroupe l'ensemble des patientes de l'étude y¦compris les tumeurs type borderline, la 2ème base de données concerne uniquement les patientes ayant récidivé de leur tumeur. Les tumeurs bénignes ont été exclues de l'étude.¦Résultats:¦La probabilitéde survie à 1 an chez les patientes avec un cancer de l'ovaire, tous stades FIGO et prises en¦charge confondus, hospitalisées au CHUV est de 88,04% (95% CI = 0.7981-‐0.9306), à 3 ans la probabilité de survie est de 70,4% (95% CI = 0.5864-‐0.7936), et à plus de 5 ans, elle est de 60% (95% CI = 0.4315-‐0.6859).¦Nous avons comparé le taux de survie en fonction du stade FIGO de la tumeur ovarienne et nous avons observé une différence significative de survie entre les stades FIGO précoces et les stades avancés (Pvaleur=¦0.0161).¦En plus d'une intervention chirurgicale, les patientes atteintes d'un cancer de l'ovaire sont normalement traitées par une chimiothérapie. Dans notre étude, 70 patientes ont bénéficié d'une chimiothérapie; un¦traitement adjuvant a été donné dans 78 % des cas (N = 55), un traitement néoadjuvant a été administré chez 22% des patientes (N=15). Le type combiné carboplatine-‐taxane est la chimiothérapie la plus fréquente (75%). Au total sur l'étude, 66 patientes sur les 147 (44%) ont récidivé de leur tumeur. En ce qui¦concerne leur prise en charge, 46% des patientes ont reçu une chimiothérapie unique comme du gemzar, cealyx ou taxotère après leur récidive. Une cytoréduction secondaire a également été effectuée chez 33% de ces patientes ayant une récidive. Nous avons également étudié l'intervalle de temps entre la date de la¦récidive et celle du décès. Parmi les 28 patientes décédées chez les récidives, 10 d'entre-‐elles (36%) ont survécu moins d'un an une fois la récidive diagnostiquée, 8 (28%) patientes ont survécu jusqu'à 2 ans, et¦les 10 (36%) autres patientes ont survécu de 2 à 5 ans. En ce qui concerne le taux de mortalité; 39 patientes sur les 147 étudiées sont décédées pendant la période d'observation, soit 26% des cas. La tumeur¦type borderline, présente une prolifération épithéliale atypique sans invasion dans le stroma et représente¦10 à 20% de toutes les tumeurs ovariennes. Dans notre étude, 41 patientes sont porteuses de cette tumeur¦(28%) et la moyenne d'âge est de 49 ans. En ce qui concerne leur prise en charge, l'intervention chirurgicale¦la plus fréquente, soit 23% des cas, est l'annexectomie unilatérale, qui reste une attitude conservative pour¦ces patientes désirant préserver leur fertilité. 6 patientes présentant ce type de tumeur ont récidivé, soit 14% des cas, avec une progression pelvienne, et 3 de ces 6 patientes sont décédées. Dans notre analyse, on observe que la probabilité de vivre plus longtemps que 1an pour les patientes ayant une tumeur borderline est de 93,8% (95% CI= 0.6323-‐ 0.9910), à 3 ans elle est également de 93,8% (95% CI = 0.6323-‐0.9910) et à 5 ans elle est de 78,1% (95% CI = 0.3171-‐0.9483). Nous n'avons pas observé de¦différence de survie dans notre étude entre les patientes présentant une tumeur borderline et le « non‐borderline ». (Pvaleur=0.3301)
Resumo:
La mort est au centre de toutes les sociétés. Quelles que soient les procédures funéraires suivies - de la crémation du cadavre à l'embaumement le plus sophistiqué -, la mort fait l'objet de traitements obéissant aux conceptions que les sociétés se font de la mort elle-même, du devenir du défunt et des relations que les vivants entretiennent avec ce dernier. Si la mort donne lieu à des rites funéraires fort variés, ceux-ci partagent cependant des fonctions communes: prendre acte d'une rupture tout en la dissolvant dans le temps long d'une transition, créer un espace dans le temps ordinaire continu, recomposer du lien social là où la mort a imposé un vide.... Etudier les rites funéraires, c'est donc s'intéresser aux réponses culturelles développées par les êtres humains face à la mort biologique, s'interroger sur les pratiques mises en place pour accompagner les défunts, mais aussi aborder la question du deuil et de la séparation des vivants d'avec leurs morts. -- Trois dimensions Pour transmettre ces connaissances, une nouvelle forme de communication multimédia a été mise au point au sein d'une équipe interdisciplinaire sciences humaines-informatique : «les eTalks», un nouveau nom que nous nous permettons d'utiliser désormais en français. Cette nouvelle forme est décrite plus bas. Quant à leur contenu, les eTalks proposés sont issus de deux cycles de formation continue organisés par l'Université de Lausanne et la Haute école pédagogique du canton de Vaud en 2010 et 2012. Les conférences, données par des professeurs d'université, de Hautes Ecoles ou par des praticiens, s'adressaient à un public provenant d'horizons professionnels très variés (enseignants, agents funéraires, membres du corps médical, représentants des communautés religieuses, etc.). Il est donc à relever que les genres littéraires de ces e-talks varient, depuis la communication académique standard, jusqu'aux témoignages de professionnels engagés sur le terrain. -- Pour des raisons de clarté, nous avons regroupé les eTalks en trois sous-thèmes: -- 1. A la découverte des cultures funéraires Génératrice de culture depuis la préhistoire, la mort suscite des attitudes et des pratiques diversifiées selon les époque et les sociétés. Les eTalks regroupés ici visent à présenter et à expliquer des pratiques funéraires développées dans trois traditions religieuses distinctes - l'Egypte ancienne, le monde réformé (du XVIe - XIXe siècle) et l'islam - et invitent ainsi à comparer des usages provenant d'horizons culturels très différents. -- 2. Rites funéraires sur le terrain Dans nos sociétés très institutionnalisées, la mort et les demandes de rites funéraires qui en découlent ont aussi un impact au sein des établissements professionnels que l'on fréquente à différentes étapes de nos vies. Les eTalks regroupés ici s'intéressent aux rites funéraires et à la gestion du deuil dans des institutions telles que l'école, les établissements médico-sociaux, le monde du travail et les pompes funèbres. Ils joignent des recherches menées sur le terrain et rendent compte des expériences vécues par les acteurs institutionnels confrontés à la mort. -- 3. Rites funéraires contemporains Certains déplorent la déperdition des rites funéraires dans nos sociétés contemporaines. Mais en est-il vraiment ainsi ? N'assiste-t-on pas aujourd'hui à une revitalisation des formes rituelles que ce soit à travers la reélaboration de pratiques anciennes ou la création de nouveaux rites ? Les eTalks regroupés ici démontrent en tous les cas une grande vitalité rituelle que ce soit par le biais de la réinterprétation et de l'adaptation des traditions religieuses ou de la créativité dont témoignent des non-croyants. Ils indiquent qu'après un temps marqué par l'éloignement de la mort, nous sommes peut-être engagés dans des formes multiples de réappropriation de cette dernière.