907 resultados para erreurs de modélisation
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Pós-graduação em História - FCHS
Resumo:
L’audit, c’est un outil de gestion très important pour que les organisations puissent accomplir la réussite. Selon le fait qu’il n’y a pas des modèles d’aide à l’audit, il existe une opportunité de recherche. En considerant les Méthodes d’Aide à la Décision, il y a des plusieurs type d’applications. L’objectif de la recherche c’est la proposition d’un modèle capable de sélectionner des processus pour faire l’audit dans une distributeur de carburant en considerant la prise de décision en groupe. La modélisation normative empirique c’est la méthode de recherche utilisée. Un modèle qui utilise l’Analytic Hierarchy Process (AHP) et la prise de décision en groupe a été proposé face aux difficultés d’un département d’Audit Interne. Le modèle proposé présente les poids des processus et permet leur priorisations dans un scénario determiné. Pour l’application de ce modèle présenté, on a utilisé cinq critères et 26 alternative (processus). L’information de jugement a été bien founi par trois spécialistes du département. Quelques rendez-vous avec les participants ont été pris pour obtenir et réviser les donnés ainsi que discuter les résultats. Les résultats obtenus par le modèle permettent d’identifier les processus qu’il faut plus d’attention. L’équipe a considéré le modèle comme une proposition d’aide à la prise de décision très pertinent pour le département d’Audit Interne
Resumo:
Dans cet article, nous présentons l'analyse des erreurs commises par rapport à l'épistémologie génétique et la psychologie de Jean Piaget. Nous nous appuyons sur un essai publié dans un périodique brésilien concernant la constitution du sujet d’enfance et la théorie de Piaget. Nous avons comme but d’aider à reprendre la «vraie» théorie de Piaget et de donner un aperçu aux lecteurs à fin de ne pas reproduire de telles erreurs ou être confrontés à de différents sens donnés à la même théorie. En ce qui concerne l'analyse, les auteurs du rapport disent que l'homme est le résultat de différents stades de développement et de ses phases. Cependant, en cherchant à expliquer comment les structures logiques deviennent nécessaires, Piaget a affirmé de ne pas rien avoir inventé. Il a conclu que la constitution des structures opératoires est le résultat de l'interaction du sujet avec le milieu, à condition qu'il dispose de certaines conditions prealables et qu’il soit capable d' établir ses rapports De cette manière, s'il a identifié des moments de la psychogenèse cognitive, il l’a fait grace à la constatation de que les sujets, dans cette interaction avec le milieu, finissaient par construire des manières qualitativement différentes de comprendre et gérer la réalité. Ainsi, Piaget n'a pas cherché de mettre les individus dans des phases ou périodes, artificiellement. Une autre erreur est celui de considérer que Piaget soit adepte de la dicotomie normalité/ anormalité. Ses préoccupations sont de nature épistémologique, et s'il est parvenu à formuler une psychologie, cela avait comme but de donner une base scientifique à sa théorie de la connaissance. Encore une autre confusion a lieu quand on affirme que Piaget a identifié les enfants aux peuples primitifs. Il a seulement dit que la nécessité d’entrer en relation avec le milieu est égale pour l'homme primitif comme pour celui d'aujourd'hui; par conséquent, le fonctionnement est le seul élément biologique considéré par Piaget, vu que tous les êtres vivants cherchent à s’adapter à la réalité. D’après cet angle, on constate que, de la même manière que l’homme primitif a été un enfant - comme ceux d’aujourd'hui - il a cherché à interagir avec le milieu à fin d'assurer sa survie. Il arrive que ses demandes étaient élémentaires du point de vue logico-mathématique, contrairement à nos jours. Une autre erreur consiste à dire qu'il a soupçonné ou admis que les processus de pensée reconnaissaient une organisation logique. Il ne s’agit pas de soupçon ni d'admission, mais d´une nécéssité. Faute de cette fondation, tout le bâtiment piagétien s’effondrerait. Nous concluons que le concept de progrès et l'état de l'intelligence sous-entendent la critique des auteurs. Malgré cela, et même pas sans admettre les explications formulées par Piaget, c’est le fait de que les censeurs doivent faire face à une vérité: indépendamment de la culture ou du moment historique, les enfants agissent toujours de la même manière, en cherchant à donner un sens à la réalité. Nous pouvons donc être d’accord ou en désaccord avec l'explication de Piaget. Cependant, il y a quelque chose qui ne doit pas être ignorée: la contribution apportée par Piaget vers la compréhension de la logique du fonctionnement mental.
Resumo:
This thesis introduces new processing techniques for computer-aided interpretation of ultrasound images with the purpose of supporting medical diagnostic. In terms of practical application, the goal of this work is the improvement of current prostate biopsy protocols by providing physicians with a visual map overlaid over ultrasound images marking regions potentially affected by disease. As far as analysis techniques are concerned, the main contributions of this work to the state-of-the-art is the introduction of deconvolution as a pre-processing step in the standard ultrasonic tissue characterization procedure to improve the diagnostic significance of ultrasonic features. This thesis also includes some innovations in ultrasound modeling, in particular the employment of a continuous-time autoregressive moving-average (CARMA) model for ultrasound signals, a new maximum-likelihood CARMA estimator based on exponential splines and the definition of CARMA parameters as new ultrasonic features able to capture scatterers concentration. Finally, concerning the clinical usefulness of the developed techniques, the main contribution of this research is showing, through a study based on medical ground truth, that a reduction in the number of sampled cores in standard prostate biopsy is possible, preserving the same diagnostic power of the current clinical protocol.
Resumo:
La ricerca è volta a presentare un nuovo approccio integrato, a supporto di operatori e progettisti, per la gestione dell’intero processo progettuale di interventi di riqualificazione energetica e architettonica del patrimonio edilizio recente, mediante l’impiego di soluzioni tecnologiche innovative di involucro edilizio. Lo studio richiede necessariamente l’acquisizione di un repertorio selezionato di sistemi costruttivi di involucro, come base di partenza per l’elaborazione di soluzioni progettuali di recupero delle scuole appartenenti al secondo dopoguerra, in conglomerato cementizio armato, prevalentemente prefabbricate. Il progetto individua procedimenti costruttivi ecocompatibili per la progettazione di componenti prefabbricati di involucro “attivo”, adattabile ed efficiente, da assemblare a secco, nel rispetto dei requisiti prestazionali richiesti dalle attuali normative. La ricerca è finalizzata alla gestione dell’intero processo, supportato da sistemi di rilevazione geometrica, collegati a software di programmazione parametrica per la modellazione di superfici adattabili alla morfologia dei fabbricati oggetto di intervento. Tali strumenti informatizzati CAD-CAM sono connessi a macchine a controllo numerico CNC per la produzione industrializzata degli elementi costruttivi “su misura”. A titolo esemplificativo dell’approccio innovativo proposto, si formulano due possibili soluzioni di involucro in linea con i paradigmi della ricerca, nel rispetto dei principi di sostenibilità, intesa come modularità, rapidità di posa, reversibilità, recupero e riciclo di materiali. In particolare, le soluzioni innovative sono accomunate dall’applicazione di una tecnica basata sull’assemblaggio di elementi prefabbricati, dall’adozione di una trama esagonale per la tassellazione della nuova superficie di facciata, e dall’utilizzo del medesimo materiale termico isolante, plastico e inorganico, riciclato ed ecosostenibile, a basso impatto ambientale (AAM - Alkali Activated Materials). Le soluzioni progettuali proposte, sviluppate presso le due sedi coinvolte nella cotutela (Università di Bologna, Université Paris-Est) sono affrontate secondo un protocollo scientifico che prevede: progettazione del sistema costruttivo, analisi meccanica e termica, sperimentazione costruttiva, verifica delle tecniche di messa in opera e dei requisiti prestazionali.
Resumo:
Ce mémoire propose la traduction de certains passages du livre « Per dieci minuti » de Chiara Gamberale. Ce roman raconte l’histoire de Chiara, une fille qui, pendant un période de troubles de sa vie où elle croit avoir perdu tous ses points de repère, décide d’essayer une thérapie-jeu: tous les jours, pendant dix minutes, elle doit faire quelque chose de nouveau, qu’elle n’a jamais expérimenté avant. Ce traitement thérapeutique s’inspire de la théorie des six exercices de Rudolf Steiner, un pédagogue autrichien qui décrit les six étapes fondamentales pour retrouver l’équilibre intérieur. D’un côté, ce mémoire veut souligner l’importance de se consacrer à la traduction d’un genre qui semble avoir de plus en plus du succès de nos jours: la littérature sur le développement personnel et le bien-être. De l’autre, il présente une analyse de l’histoire de la traduction, surtout en ce qui concerne la traduction des référents culturels, à travers une comparaison entre l’approche « normalisante » et l’approche « exotisante ». De plus, il traite le sujet épineux, puisque complexe et fascinant en même temps, des « intraduisibles », c’est-à-dire les implicites culturels. Il s’agit de mots pour lesquels il est impossible de trouver un équivalent direct dans les autres langues puisqu’ils décrivent les habitudes spécifiques d’une certaine communauté ou ils sont le fruit d’une vision spécifique et unique du monde de la part d’une culture. Moi-même, à travers cette traduction, j’ai dû me confronter avec toute une série de défis au niveau traductif , liés surtout au contexte culturel et au style de l’écrivain: j’ai traduit par exemple des parties en dialecte, des passages en rimes et j’ai dû même reproduire volontairement des erreurs de grammaire afin de m’adapter au registre linguistique de certains personnages.
Resumo:
L’estimation du stock de carbone contenu dans les forêts peut être effectuée de plusieurs manières. Les méthodes les plus connues sont destructives et nécessitent l’abattage d’un grand nombre représentatif d’arbres. Cette représentativité est difficilement atteinte dans les forêts tropicales, présentant une diversité d’espèces exceptionnelles, comme à Madagascar. Afin d’évaluer le niveau de dégradation des forêts, une étude d'images par télédétection est effectuée au moyen de l’analyse du signal radiométrique, combinée à un inventaire non destructif de biomasse. L’étude de la dynamique du paysage proposé est alors basée sur une correction atmosphérique d’une image SPOT 5, de l’année 2009, et sur une classification semi supervisée de l’occupation des sols, combinant une classification préliminaire non supervisée, un échantillonnage aléatoire des classes et une classification supervisée avec un maximum de vraisemblance. La validation est effectuée à l’aide de points indépendants relevés lors des inventaires de biomasse avec des valeurs du stock de carbone bien précises. La classification non supervisée a permis de ressortir deux classes de forêt dénommées « peu dégradée » et « dégradée ». La première désigne l’état climax (le stock de carbone a atteint une valeur qui varie peu) alors que la seconde est caractérisée par un taux de carbone plus faible que le niveau climax, mais qui peut être atteint sans perturbation. Cette première classification permet alors de répartir les placettes d’inventaire dans chaque classe. La méthode d’inventaire recueille à la fois des données dendrométriques classiques (espèce, densité, hauteur totale, hauteur fût, diamètre) et des échantillons représentatifs de branches et de feuilles sur un arbre. Ces différents paramètres avec la densité de bois permettent d’établir une équation allométrique de laquelle est estimée la biomasse totale d’un arbre et conséquemment de la formation forestière. Par la suite, la classification supervisée a été effectuée à partir d’échantillons aléatoires donnant la valeur de séparabilité des classes, de la classification finale. De plus, les valeurs de stocks de carbone à l’hectare, estimées de chaque placette, ont permis de valider cette classification et d’avoir une évaluation de la précision. La connaissance de ce niveau de dégradation issue de données satellitaires à haute résolution spatiale, combinées à des données d’inventaire, ouvre le champ du suivi interannuel du stock de carbone et subséquemment de la modélisation de la situation future du stock de carbone dans différents types de forêts.
Resumo:
The CMCC Global Ocean Physical Reanalysis System (C-GLORS) is used to simulate the state of the ocean in the last decades. It consists of a variational data assimilation system (OceanVar), capable of assimilating all in-situ observations along with altimetry data, and a forecast step performed by the ocean model NEMO coupled with the LIM2 sea-ice model. KEY STRENGTHS: - Data are available for a large number of ocean parameters - An extensive validation has been conducted and is freely available - The reanalysis is performed at high resolution (1/4 degree) and spans the last 30 years KEY LIMITATIONS: - Quality may be discontinuos and depend on observation coverage - Uncertainty estimates are simply derived through verification skill scores