21 resultados para Modelisation
Resumo:
Les populations du caribou forestier (Rangifer tarandus caribou) sont en déclin sur l’ensemble de leur aire de répartition en Amérique du Nord. Il s’avère que la prédation, amplifiée par l’exploitation forestière, en est la principale cause. Ce projet consiste à mettre en place un outil d'aide à la décision, permettant de modéliser les changements du risque de prédation chez le caribou forestier durant la succession forestière, et ce, selon différents scénarios d'aménagement forestier simulés sur la Côte-Nord du Québec, Canada. Ces scénarios, simulés de 2000 à 2150, sont caractérisés par (i) des coupes limitées aux blocs de protection et de remplacement, (ii) des coupes étendues sur le paysage, et finalement (iii) par l'absence de coupe dès 2000. Un modèle basé sur l'individu (MBI) permet de modéliser les déplacements simultanés du caribou forestier, de l'orignal (Alces alces) et du loup gris (Canis lupus) afin d'évaluer le risque de prédation selon les scénarios. En général, le risque de prédation est plus important lorsque les coupes sont limitées aux blocs de protection et de remplacement. En effet, il semble que ces blocs augmentent les probabilités de rencontre entre les proies et leurs prédateurs. Toutefois, certains résultats ne reflètent pas la littérature, ce qui montre la nécessité d'améliorer le MBI. Certaines recommandations visent finalement à bonifier ce MBI pour permettre l'analyse de la viabilité à long terme du caribou forestier en fonction de différents scénarios d'aménagement forestier.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
La desintegració és una etapa important en la recuperació de paper vell, ja que té importants conseqüències en consum d'energia i en el comportament de les etapes posteriors. Per això els objectius es centren en analitzar la desintegració des del punt de vista del temps de desintegració, els aspectes energètics, modelització de la màquina de desintegració utilitzada i anàlisi dels factors de cisallament calculats com a mesura global de les forces implicades en la desintegració. Els autors que hi han treballat donen diferents explicacions a aquestes forces. Fins avui només s'ha pogut avaluar qualitativament la influència que tenen cada un dels mecanismes en el temps necessari per a desintegrar i en el consum energètic. Les característiques reològiques de les suspensions papereres, i el seu comportament no newtonià tenen una clara influència en el consum energètic i les forces de desfibrat en el desintegrador. Els experiments de desintegració s'han realitzat en un púlper convencional, amb tres tipus de paper recuperat: paper estucat d'alta qualitat imprès offset (PQ), paper revista estucat imprès en color (PR), paper blanc imprès en impresora làsser (PF). Anàlisi del temps de desintegració Per cada un del papers estudiats (PQ, PR i PF), les fraccions màssiques des de 0.06 fins a la màxima que estat possible per cada paper (de 0.14 a 0.18), i a dues velocitats d'agitació diferents, s'ha determinat el temps de desintegració (tD) fins a aconseguir un índex de Sommerville de 0.01%. S'obté que en augmentar la fracció màssica disminueix potencialment el temps de desintegració. S'ha estudiat la velocitat de desintegració, la producció teòrica del púlper en cada cas, i la seva relació amb les forces d'impacte i de fregament que produeixen la desintegració. Aspectes energètics El consum específic d'energia (SEC), definit com l'energia consumida per a desintegrar 1 kg de paper recuperat, disminueix molt en augmentar Xm, ja que a més de disminuir l'energia consumida en cada desintegració, el contingut en paper és més elevat. Pel disseny de desintegradors, cal tenir en compte que en augmentar Xm i en augmentar la velocitat, sempre augmenta la potència consumida. Però així com els beneficis de treballar a Xm alt són de 10 vegades en termes de SEC i de producció, l'augment de potència és només de l'ordre de 2 vegades la necessària respecte de la Xm baixa. Viscositat aparent i energia de fluidització S'estudia la relació entre el temps de desintegració, les forces de fregament i els valors de viscositat aparent de la bibliografia. Per cada paper i velocitat s'ha observat que el consum específic d'energia disminueix en funció de la viscositat aparent. Reologia del púlper Utilitzant el mètode de Metzner i Otto (1957) per determinar la viscositat aparent mitjana de les suspensions papereres, modificat per Roustan, s'ha caracteritzat el pulper mitjançant el model: Np= K· Rex·Fry S'han utilitzat dissolucions de glicerina com a fluid newtonià per a calcular les constants d'ajust, i a partir d'aquí, aïllar la viscositat aparent en funció de la potència neta i els paràmetres d'agitació. La viscositat aparent, d'acord amb Fabry (1999) es substitueix pel concepte de factor de cisallament. Factor de cisallament Calculat el factor de cisallament per a cada paperot i condicions d'agitació, s'ha relacionat amb Xm, SEC, tD, consum de potència, potència instal·lada i fracció cel·lulòsica. El factor de cisallament és un paràmetre útil per a quantificar les forces globals implicades en la desintegració.
Resumo:
Numerical solutions of the sediment conservation law are reviewed in terms of their application to bed update schemes in coastal morphological models. It is demonstrated that inadequately formulated numerical techniques lead to the introduction of diffusion, dispersion and the bed elevation oscillations previously reported in the literature. Four different bed update schemes are then reviewed and tested against benchmark analytical solutions. These include a first order upwind scheme, two Lax-Wendroff schemes and a non-oscillating centred scheme (NOCS) recently applied to morphological modelling by Saint-Cast [Saint-Cast, F., 2002. Modelisation de la morphodynamique des corps sableux en milieu littoral (Modelling of coastal sand banks morphodynamics), University Bordeaux 1, Bordeaux, 245 pp.]. It is shown that NOCS limits and controls numerical errors while including all the sediment flux gradients that control morphological change. Further, no post solution filtering is required, which avoids difficulties with selecting filter strength. Finally, NOCS is compared to a recent Lax-Wendroff scheme with post-solution filtering for a longer term simulation of the morphological evolution around a trained river entrance. (C) 2006 Elsevier B.V. All rights reserved.
Resumo:
The recently developed network-wide real-time signal control strategy TUC has been implemented in three traffic networks with quite different traffic and control infrastructure characteristics: Chania, Greece (23 junctions); Southampton, UK (53 junctions); and Munich, Germany (25 junctions), where it has been compared to the respective resident real-time signal control strategies TASS, SCOOT and BALANCE. After a short outline of TUC, the paper describes the three application networks; the application, demonstration and evaluation conditions; as well as the comparative evaluation results. The main conclusions drawn from this high-effort inter-European undertaking is that TUC is an easy-to-implement, inter-operable, low-cost real-time signal control strategy whose performance, after very limited fine-tuning, proved to be better or, at least, similar to the ones achieved by long-standing strategies that were in most cases very well fine-tuned over the years in the specific networks.