542 resultados para Turboalternatore, Guasti, Fatica oligociclica, Affidabilità, Probabilità
Resumo:
L’elaborato di tesi è stato redatto durante un’esperienza formativa presso la Parker Hannifin Manufacturing – Divisione Calzoni di Anzola dell’Emilia (BO). Il lavoro della tesi ha avuto per oggetto l’analisi di sicurezza e l’analisi dei guasti di un banco di assemblaggio e collaudo per motori oleodinamici a pistoni radiali. Il lavoro si è articolato in più fasi: una prima fase volta all’analisi funzionale (meccanica, idraulica, elettrica ed elettronica) dell’apparecchiatura, la fase successiva è stata dedicata allo studio delle varie normative necessarie a redigere il rapporto di sicurezza. Si sono poi valutati ed analizzati tutti i requisiti di sicurezza dell’apparecchiatura (valutazione del rischio) al fine di redigere il fascicolo tecnico. Infine, si è svolta l’analisi dei guasti (FMEA) secondo il metodo adottato in azienda. Il primo ed il secondo capitolo introducono la finalità industriale ed una descrizione generica dell’apparecchiatura. Nel terzo capitolo vi è una descrizione accurata del sistema idraulico e delle sue possibili configurazioni; il quarto nasce invece per approcciarsi alle normative di sicurezza a cui si è fatto riferimento. Infine, il quinto ed il sesto capitolo contengono rispettivamente il fascicolo tecnico e l’analisi dei guasti relativa all'apparecchiatura industriale studiata.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.
Resumo:
Il presente elaborato analizza il problema dell'intrusione salina e valuta l'influenza dei parametri idrologici e idrogeologici sulle dinamiche del processo mediate simulazioni Monte Carlo. A scopo esemplificativo, l’intrusione salina viene studiata in condizioni stazionarie e nell’ipotesi di interfaccia netta. La tecnica di simulazione viene descritta a partire dai concetti statistici di base che includono la definizione delle distribuzioni di probabilità scelte per descrviere il comportamento dei parametri del modello concettuale e la procedura di campionamento di tali distribuzioni. Un codice in Matlab è stato realizzato per l’applicazione ad un semplice caso studio.
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.
Resumo:
Les caractéristiques physiques d’un site de nidification peuvent influencer la probabilité qu’il soit utilisé et l’issue des tentatives de nidification. La buse pattue (Buteo lagopus) construit un imposant nid, qui peut être réutilisé plusieurs années, en bordure des falaises et des versants en Arctique. Ces habitats escarpés sont perturbés par des mouvements de masse pouvant entraîner la destruction de sites critiques pour la reproduction des buses. Nous avons d’abord examiné l’effet de plusieurs variables environnementales et de la réutilisation d’un nid sur la reproduction de la buse pattue. Ensuite, nous avons évalué la vulnérabilité des nids aux mouvements de masse et identifié les facteurs environnementaux associés à la persistance des nids. L’étude s’est déroulée à l’île Bylot (Nunavut) de 2007 à 2015. La probabilité qu’un nid soit utilisé par un couple augmentait avec la distance du nid actif le plus proche, la présence d’un surplomb au-dessus du nid et la densité des lemmings. Les nids accessibles aux renards et orientés vers le nord étaient associés à un moins bon succès reproducteur. Celui-ci était aussi positivement relié à la densité estivale de lemmings et négativement relié aux précipitations. Nos résultats suggèrent que les caractéristiques physiques du site de nidification offrant un microclimat favorable et une protection contre les prédateurs reflètent des sites de haute qualité. Le succès reproducteur était similaire entre les nouveaux nids et ceux préexistants, suggérant que la construction d’un nid n’entraîne pas de coût sur la reproduction à court terme. Parmi les 82 nids connus, près du tiers ont été détruits par des mouvements de masse et parmi ceux encore intacts, la majorité sont à risque modéré et haut de l’être. La probabilité de destruction était élevée pour les nids construits sur des sédiments non consolidés et positivement associée aux fortes précipitations. La hausse anticipée des précipitations due aux changements climatiques est susceptible d’augmenter la vulnérabilité des nids aux mouvements de masse ce qui pourrait ultimement réduire la disponibilité de sites appropriés pour la reproduction de ce rapace.
Resumo:
Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.
Resumo:
En l’absence de mesure précise et unique de l’efficience pour les joueurs de hockey, la présente étude a pour objectifs d’évaluer l’efficience des joueurs dans la Ligue Nationale de Hockey (LNH) et de montrer comment celle-ci peut affecter la décision de racheter le contrat d’un joueur. Pour ce faire, les statistiques individuelles des joueurs de la LNH pour les saisons 2007-2008 à 2010-2011 sont utilisées. Pour estimer l’efficience, la méthode de l’enveloppement de données (DEA) avec bootstrap est utilisée. Les inputs incluent le salaire et le nombre de minutes de jeu, alors que les outputs incluent la contribution défensive et offensive de chaque joueur. Pour estimer l’association entre l’efficience individuelle et la probabilité d’un rachat de contrat, une régression logistique est utilisée. L’analyse des données montre que parmi 3 159 observations, l’efficience moyenne est de 0,635. L’efficience moyenne est similaire pour toutes les positions et toutes les saisons. Un lien positif et fort est trouvé entre le nombre de points au classement général d’une équipe et l’efficience moyenne des joueurs qui la compose (coefficient de corrélation=0,43, valeur-p<0,01). Les joueurs avec une efficience plus élevée ont une probabilité plus faible de voir leur contrat racheté (rapport des chances=0,01, valeur-p<0,01). La présente étude conclut donc que la plupart des joueurs de hockey dans la LNH ont un degré d’inefficience non négligeable, qu’une efficience plus élevée est associée à une meilleure performance au niveau de l’équipe et que les joueurs efficients ont une probabilité plus faible de voir leur contrat racheté.
Resumo:
Les changements climatiques récents ont mené à l’expansion de la répartition de plusieurs espèces méridionales, mais ont aussi causé l’extinction locale d’espèces se retrouvant à la limite de leur tolérance environnementale. Ces populations en expansion peuvent favoriser différentes stratégies d’histoire de vie en répondant à différents facteurs limitants. Dans cette thèse, je vise à déterminer et quantifier l’effet du climat et des évènements extrêmes sur le cycle de vie complet d’une espèce en expansion (le dindon sauvage) pour comprendre les changements au niveau populationnel ainsi que les mécanismes impliqués dans l’expansion de la distribution d’une espèce. J’ai défini les évènements extrêmes de pluie, d’épaisseur de neige au sol et de température, comme un évènement dont la fréquence est plus rare que le 10e et 90e percentile. En utilisant l’approche « Measure-Understand-Predict » (MUP), j’ai tout d’abord suivi trois populations le long d’un gradient latitudinal de sévérité hivernale pour mesurer l’effet de variables météorologiques sur la dynamique des populations. La survie des dindons sauvages diminuait drastiquement lorsque l’accumulation de neige au sol dépassait 30 cm pour une période de 10 jours et diminuait également avec la température. Au printemps, la persistance de la neige affectait négativement le taux d’initiation de la nidification et l’augmentation de la pluie diminuait la survie des nids. Dans une deuxième étape, j’ai examiné l’impact des évènements climatiques extrêmes et des processus démographiques impliqués dans l’expansion du dindon, liés à la théorie des histoires de vie pour comprendre la relation entre la dynamique de ces populations en expansions avec le climat. J’ai démontré que la fréquence des évènements extrêmes hivernaux et, d’une façon moins importante, les évènements extrêmes estivaux limitaient l’expansion nordique des dindons sauvages. J’ai appuyé, à l’aide de données empiriques et de modélisation, les hypothèses de la théorie classique des invasions biologiques en montrant que les populations en établissement priorisaient les paramètres reproducteurs tandis que la survie adulte était le paramètre démographique affectant le plus la dynamique des populations bien établies. De plus, les populations les plus au nord étaient composées d’individus plus jeunes ayant une espérance de vie plus faible, mais avaient un potentiel d’accroissement plus élevé que les populations établies, comme le suggère cette théorie. Finalement, j’ai projeté l’impact de la récolte sur la dynamique des populations de même que le taux de croissance de cette espèce en utilisant les conditions climatiques futures projetées par les modèles de l’IPCC. Les populations en établissement avaient un taux de récolte potentiel plus élevé, mais la proportion de mâles adultes, possédant des caractéristiques recherchées par les chasseurs, diminuait plus rapidement que dans les populations établies. Dans le futur, la fréquence des évènements extrêmes de pluie devrait augmenter tandis que la fréquence des évènements extrêmes de température hivernale et d’accumulation de neige au sol devraient diminuer après 2060, limitant probablement l’expansion nordique du dindon sauvage jusqu’en 2100. Cette thèse améliore notre compréhension des effets météorologiques et du climat sur l’expansion de la répartition des espèces ainsi que les mécanismes démographiques impliqués, et nous a permis de prédire la probabilité de l’expansion nordique de la répartition du dindon sauvage en réponse aux changements climatiques.
Resumo:
Résumé: Problématique : En réponse à la prévalence accrue de la maladie du diabète et au fardeau économique important que représente cette maladie sur le système de santé international, des programmes incitatifs pour les maladies chroniques furent instaurés à travers le monde. Ces programmes visent à inciter les médecins à appliquer les lignes directrices chez leurs patients avec besoin complexe en vue d’améliorer la santé des patients et par la suite de réduire les coûts incombés par le système de santé. Les programmes incitatifs étant nombreux et différents d’un pays à l’autre, les études actuelles ne semblent pas s’entendre sur les répercussions de tels programmes sur la santé des patients atteints de diabète. L’objectif de cette étude est d’évaluer les retombées d’un incitatif financier sur le contrôle glycémique de la population atteinte de diabète du Nouveau-Brunswick, au Canada. Méthodes : Cette étude transversale répétée et de cohorte a été menée grâce à des bases de données administratives du Nouveau-Brunswick contenant des données sur dix ans pour 83 580 patients adultes atteints de diabète et 583 médecins de famille éligibles. La santé des patients a été évaluée au niveau du contrôle glycémique, en mesurant les valeurs moyennes d’A1C annuelles à l’aide de régressions linéaires multivariées. Afin d’évaluer si les médecins changeaient leur pratique avec l’implantation du programme incitatif, nous regardions au niveau de la probabilité de recours annuel à au moins deux tests d’A1C en utilisant des régressions logistiques multivariées. Résultats : La probabilité de recours annuel à au moins deux tests d’A1C était plus élevée dans quatre sous-groupes étudiés : les patients nouvellement diagnostiqués après l’implantation du programme avaient des cotes plus élevées comparées aux nouveaux patients avant l’implantation du programme (OR=1.23 [1.18-1.28]); les patients pour lesquels un médecin avait réclamé l’incitatif comparés aux patients pour lesquels aucun médecin n’avait réclamé l’incitatif (OR=2.73 [2.64-2.81]); les patients pour lesquels un médecin avait réclamé l’incitatif avaient des cotes plus élevées après l’implantation du programme comparé à avant (OR=1.89 [1.80-1.98]); et finalement, les patients suivis par un médecin de famille qui a déjà réclamé l’incitatif avaient des cotes 24% plus élevées (OR=1.24 [1.15-1.34]). Il n’y avait pas de différence dans les valeurs d’A1C annuelles entre les 4 sous-groupes étudiés. Conclusion : L’implantation du programme incitatif a démontré que les médecins ont une meilleure probabilité de prescrire au moins deux tests d’A1C, ce qui suggère une meilleure prise en charge des patients. Cependant, le manque de changement au niveau du contrôle glycémique du patient suggère que l’étude des répercussions de l’incitatif devra être poursuivie afin de voir si elle mène à une amélioration d’issues cliniques chez les patients.
Resumo:
La réalité scolaire au Québec est un sujet d'actualité depuis quelques temps. En effet, on observe une préoccupation de plus en plus grande à remettre en question le fonctionnement scolaire lorsque l'on regarde les chiffres de décrochage scolaire au secondaire: quatre Québécois sur dix quittent aujourd'hui l'école sans diplôme d'études secondaires (Gruda, 1991). Phlegar (1987) identifie différents facteurs qui amènent les adolescents à délaisser l'école, lesquels se situent à quatre niveaux: académique, scolaire et social, familial et personnel. Selon l'auteure, dès l'entrée scolaire, nous pouvons observer certaines de ces caractéristiques chez les enfants. Pour favoriser une expérience de succès et ainsi développer une motivation à apprendre dans un cadre formel d'enseignement, quand peut-on dire alors qu'un enfant est prêt à intégrer l'école? Le ministre de l'éducation du Québec, monsieur Michel Pagé (Montpetit, 1991), considère l'importance de l'âge chronologique pour déterminer le temps propice à l'entrée scolaire selon un document préparé en 1988 par la Direction des études économiques et démographiques du ministère de l’Éducation. D'après cette recherche interne, l'enfant jeune (celui qui a commencé jeune sa scolarité par dérogation scolaire ou celui dont l'anniversaire se situe entre le premier juillet et le 30 septembre) démontre plus de probabilité de reprendre une année scolaire au primaire et la première année du secondaire que les autres enfants. Toujours selon cette étude, Gagnon (1991) rapporte que les enfants qui entrent à l'école à six ans précis (les enfants jeunes) seraient plus nombreux à persévérer. Malgré cette donnée, le ministre a envisagé l'éventualité de retarder l'entrée scolaire des enfants et de mettre la date d'admission au 31 mai plutôt qu'au 30 septembre comme c'est le cas actuellement (Projet, 1991; Lessard, 1991). Ce dernier considère, en effet, qu'un retard d'un an dans l'entrée à l'école de ces enfants contribuerait à réduire le nombre d'élèves qui redoublent de même que le nombre de ceux qui décrochent du système plus tard. Mais cette étude interne démontre aussi qu'il n'y a aucune relation entre le mois de naissance et la probabilité d'accéder au diplôme d'études secondaires. Ce désir de changement entraîne beaucoup de réactions dans le milieu éducatif, certaines favorables et d'autres non. M. Pagé, devant ces réactions, a ouvert la porte à la possibilité d'utiliser une formule d'évaluation individuelle pour les cas limites. Ce que la Fédération des Commissions Scolaires du Québec (F.C.S.Q.) et la Centrale de l'enseignement du Québec (C.E.Q.) qualifient d'utopie. L'âge d'admission est pour la F.C.S.Q. le seul critère objectif d'admission (1991). Nous remarquons donc que ce débat est principalement centré sur un critère unique de sélection concernant l'entrée scolaire: l'âge chronologique. Mais en existe-t-il d'autres? Ainsi, à partir de l'existence de différentes positions fermes des instances concernées par la formation académique des enfants et des modalités qui régissent l'entrée scolaire, cet essai a pour objectif l'identification des prédicteurs de réussite scolaire pour les enfants à leur entrée au primaire. Qu'il s'agisse d'enfants qui ont des risques de troubles d'apprentissage en lecture (Fedoruk, 1989), d'enfants qui sont doués et qui bénéficieraient d'une dérogation scolaire pour l'âge d'admission (Proctor,Black & Feldhusen, 1986; Proctor, Feldhusen & Black, 1988), ou des enfants qui répondent au critère chronologique d'admission scolaire (Phlegar, 1987), tous ces chercheurs s'entendent pour dire que les performances académiques sont influencées par différents facteurs qui concernent l'enfant et le milieu d'appartenance. De plus, les Gouverneurs et le Président américain adoptaient en février 1990 une série d'objectifs nationaux concernant l'éducation pour l'an 2000 aux États-Unis dont le premier étant que tous les enfants soient prêts à apprendre à leur entrée scolaire primaire (Haycock, 1991). L'équipe de recherche chargée de développer cet objectif (Prince, 1992) considère, dans ses recommandations qu'un système d'évaluation doit comprendre plusieurs dimensions s'intégrant dans les cinq sphères de développement de l'enfant (physique, socio-affectif, style d'apprentissage, langage, cognitions et connaissances) et son environnement (parents et professeurs). Et c'est justement ce que notre étude veut établir. Nous verrons, dans un premier temps, la nature du problème ainsi que l'objectif de la recherche et le cadre théorique qui servent de charpente à la compréhension de cet objet d'étude. Viendront ensuite l'identification du modèle de recension des écrits utilisé suivi des informations concernant la recherche des études scientifiques. Nous ferons ensuite le résumé et l'analyse des recherches primaires retenues en tenant compte des qualités méthodologiques et métrologiques. Nous synthétiserons ces informations pour retenir les résultats valides afin de faire le point sur les résultats disponibles à ce jour. Nous terminerons avec une discussion sur la pertinence des résultats, les limites de l'étude de même que des suggestions concernant de futurs domaines d'investigation.
Resumo:
Le développement de l'enfant est un phénomène fort étudié par de nombreux chercheurs dans les domaines des sciences humaines et des sciences de la santé. La présente recherche s'intéresse plus particulièrement au développement psychosocial et comportemental ainsi qu'aux problèmes qui peuvent se manifester chez certains jeunes d'âge préscolaire. Le développement psychosocial et comportemental de l'enfant est fortement influencé par son environnement. Le premier chapitre de ce Mémoire traite plus spécifiquement de trois conditions environnementales dont découlent une série de facteurs de risque. Il s'agit de la pauvreté, de la monoparentalité et des conduites et attitudes parentales. Les études sur ces facteurs établissent assez clairement qu'ils accroissent la probabilité que se manifestent des difficultés d'adaptation chez les enfants. De plus, il est fréquent que les premiers symptômes de difficultés psychosociales et comportementales apparaissent dès les premières années de vie. La garderie constitue, pour plusieurs enfants, la toute première expérience de socialisation en dehors de leur famille. En outre, ce milieu accueille des jeunes éprouvant des difficultés d'adaptation sociale. Afin de limiter, voire de contrer l'établissement de ces problèmes, la prévention et l'intervention précoce semblent constituer des stratégies efficaces. Le deuxième chapitre présente ces notions et en décrit les avantages. Des exemples de programmes d'intervention précoce à caractère préventif font l'objet de la seconde partie de ce chapitre. Parmi ceux-ci, quatre grandes catégories sont dégagées. D'abord il y a les programmes qui sont respectivement destinés aux parents et aux enfants. S'ajoutent ensuite des programmes mixtes s'adressant à la fois aux enfants et aux parents. Enfin, des programmes offerts en garderie recourent à la participation des éducatrices et des parents. Un programme d'intervention précoce à caractère préventif, appelé "La carte des cas vécus", a été élaboré par François Tochon, professeur à l'Université de Sherbrooke. La méthode des cas vécus est une approche analytique où, sous une forme de discussion de groupe, il y a présentation d'un cas problématique réel, analyse de ce cas et recommandation de stratégies et de moyens qui seront mis de l'avant afin de résoudre le problème. Cette méthode s'étant avérée efficace dans d'autres domaines, notamment dans l'enseignement, elle fut reprise et adaptée aux milieux de garde. Le projet d'intervention, tel que présenté dans cette recherche, avait pour but de rejoindre des familles défavorisées dont les enfants étaient susceptibles de vivre des difficultés psychosociales et comportementales. L'hypothèse avancée par le programme d'intervention était que des rencontres régulières entre les parents et les éducatrices permettraient d'améliorer l'intégration sociale des enfants en milieu de garde. Puisqu'il n'y avait pas d'intervention directe auprès de ces derniers, c'est via les parents et les éducatrices qu'une plus saine transition famille-garderie serait facilitée. L'approche de "La carte des cas vécus" est présentée de façon détaillée dans le chapitre trois. La présente étude s'avère être un projet pilote dont le but est d'évaluer le programme "La carte des cas vécus" offert à des parents d'enfants de quatre et cinq ans vivant de légères difficultés d'adaptation en garderie. Le professeur François Tochon dirigeait toutes les opérations relatives au programme d'intervention, tandis que le professeur Jean Toupin assumait l'évaluation du programme d'intervention. Les chapitres quatre, cinq et six sont consacrés à la partie évaluative de l'étude, soit la méthodologie utilisée, l'analyse des données et la discussion.
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
Si presenta in questa sede una sintesi dei risultati emersi dalle campagne 2014-2015 del Pisa South Picenum Survey Project II, relativo alle alte valli dei fiumi Aso e Tenna, nelle Marche meridionali. Dalle ricognizioni intensive effettuate nel territorio comunale di Amandola (Provincia di FM) è emerso un fitto popolamento rurale costituito da piccole fattorie, databili a partire dalla fine del III sec.a.C., e posizionate all’interno di una griglia centuriale. Questo territorio, con tutta probabilità viritim adsignatus a seguito della lex de agro Gallico et Piceno viritim dividundo del 232 a.C., doveva avvalersi di un polo di aggregazione sociale e amministrativa ubicato nelle vicinanze e ben collegato alla viabilità principale. La posizione strategica, un’accurata analisi dell’assetto centuriale e numerosi rinvenimenti archeologici permettono di identificare questa praefectura nell’area dell’attuale Comunanza dove possiamo localizzare l’antica Novana citata da Plinio (N.H., III, 11)., un centro piceno che divenne, forse, un foro, e poi una praefectura ed infine un municipium.