478 resultados para COT
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
En la presente investigación se evaluó la aplicación de los tratamientos de electrocoagulación (EC), Fenton y foto-Fenton para remover compuestos fenólicos presentes en el agua residual de una refinería del petróleo, y cumplir con el nivel regulatorio de descarga establecido por la Agencia de Protección Ambiental (EPA, por sus siglas en inglés). En el proceso de electrocoagulación se evaluaron las variables de tiempo de tratamiento, densidad de corriente, tipo de electrodo, tipo de configuración, posición de los electrodos, pH y agitación, mediante un diseño experimental. Al agua electrocoagulada se le aplicó el tratamiento Fenton, en el cual se evaluaron las variables de concentración de H2O2, Fe2+, y el tiempo de tratamiento. Con el fin de mejorar los porcentajes de mineralización del agua electrocoagulada se aplicó el tratamiento foto-Fenton con luz ultravioleta, en el cual se evaluaron los efectos de las concentraciones de H2O2, Fe2+ y aireación. Conclusiones y contribuciones: Para el tratamiento de electrocoagulación, las mejores condiciones de operación se obtienen bajo las siguientes condiciones: 40 mAcm-2, tiempo de tratamiento de 20 min, pH 7, agitación de 155 rpm, con electrodos orientados horizontalmente en configuración monopolar en paralelo, usando electrodos de hierro; bajo estas condiciones se remueve 52.4% de fenoles totales y 42.3% de COT. La aplicación al agua residual electrocoagulada del tratamiento Fenton, conduce a la degradación de los compuestos fenólicos remanentes del tratamiento de EC a concentraciones menores a 1 ppm y 57.6 % de remoción de COT, siendo las condiciones siguientes las mejores obtenidas: concentración de 19.8 mgL-1 de Fe2+ y 612 mgL-1 de H2O2 en un tiempo de reacción de 15 min a pH 3. Los mejores resultados del tratamiento foto-Fenton aplicado al agua electrocoagulada se obtienen con 306 mgL-1 de H2O2, 19.8 mgL-1 de Fe2+, y con aplicación de aire, alcanzando una remoción de 88% de COT.
Resumo:
Propósito y Método del estudio: En este trabajo se estudió la influencia del método de síntesis en las propiedades fisicoquímicas, fotocatalíticas y fotoelectroquímicas del BaBiO3 y el Sr2Bi2O5. En primera instancia, se realizó la síntesis de los materiales por la técnica de estado sólido (pos-tratamiento con molienda mecánica) e hidrotermal. Para la síntesis en hidrotermal se exploraron 3 diferentes temperaturas: 130, 150, 170 °C. Los materiales obtenidos fueron caracterizados mediante Difracción de Rayos-X (DRX), Espectroscopía de Reflectancia Difusa (ERD), Microscopía Electrónica de Barrido (MEB) y Fisisorción de Nitrógeno. Posteriormente se realizó la evaluación de las propiedades fotocatalíticas de los materiales obtenidos en la degradación de rodamina B. Las pruebas fotocatalíticas se realizaron en un reactor tipo Batch, utilizando una lámpara de Xenón de 6000 K. El estudio fotocatalítico finalizó con el cálculo de parámetros cinéticos tales como la constante de velocidad aparente (k) y tiempo de vida media (t1/2). Los resultados mostraron que el BaBiO3 sintetizado por reacción de estado sólido presentó la mayor eficiencia fotocatalitica. Para incrementar la eficiencia fotocatalitica de los materiales sintetizados se adicionaron superficialmente partículas de NiO en porcentajes de 3, 5 y 10 % al bismutato de estroncio y bario, utilizando para ello el método de impregnación. Los materiales fueron caracterizados y probados en la degradación de rodamina B. Por otro lado, para conocer el grado de eficiencia de los materiales se realizó el estudio fotoelectroquímico para determinar la posición de las bandas de conducción y valencia de cada uno de ellos. El grado de mineralización de la rodamina B se analizó mediante análisis de Carbón Orgánico Total (COT) y adicionalmente se realizaron pruebas de reproducibilidad para determinar la estabilidad de los materiales ante la exposición de ciclos sucesivos de irradiación. Contribuciones y conclusiones: Se lograron obtener los Bismutatos de Estroncio y Bario mediante la reacción en estado sólido a 800 y 900 °C. Mientras que por el método de hidrotermal se obtuvieron los materiales a 130, 150 y 170°C, seguido de un tratamiento térmico a 700°C. Los resultados de electroquímica mostraron que el material de Sr2Bi2O5 es apto para generar procesos de oxidación y reducción. La adición de NiO no proporcionó mejora en la eficiencia fotocatalítica, lo que se atribuyó a las aglomeraciones de partículas sobre la superficie de los materiales. Los materiales obtenidos por estado sólido presentaron la mayor actividad fotocatalítica en degradación de rodamina B, comparados con los obtenidos por el método de hidrotermal, por lo que el factor que domina la actividad fotocatalítica de estos materiales fue principalmente la cristalinidad. Además los materiales presentaron buena estabilidad ante ciclos sucesivos de irradiación y mostraron un buen grado de mineralización de la rodamina B.
Resumo:
Background: Passive smokers are involuntarily exposed to cigarette or tobacco smoke and as known, inhalation of environmental tobacco smoke is a serious threat. There is little information about the effect of passive smoking on salivary markers and periodontal indices. Objectives: This study investigated the effect of passive smoking on lactoferrin and AST in 12 - 15 years old children and adolescents. Patients and Methods: This case-control analytic correlation type study with no-convenience random sampling method was performed on 160 children aged 12 - 15 who had smokers in their families. The eligible children were divided into two equal groups; 80 cot+ children as case group and 80 cot– children as control group, matched according to age, sex and plaque index. Plaque index was obtained from all subjects. 2 cc unstimulated salivary samples were collected by spitting method. The collected specimens were tested by lactoferrin and AST kits in biochemistry were measured on the day of sampling laboratory. Gingival index Loe and Silness (GI) and Probing Pocket Depth (PPD). Results: Mean and Standard Deviation of PPD and GI was 2.01 ± 0.077 and 1.53 ± 0.055 in experimental group and 1.93 ± 0.073 and 1.49 ± 0.046 in control group respectively (P < 0.001). The Mean and Standard Deviation parameters of lactoferrin and AST, in the experimental group was 38.66 ± 25.15 and 13.45 ± 6.33 and in the control group 10.18 ± 6.82 and 6.53 ± 2.65 group, respectively (P < 0.001). Conclusions: Passive smoking can be effective on inflammatory process of periodontal and salivary biomarkers related to inflammation. Lactoferrin was 11 - 104 in case group and 0.5 - 38 in control group. Aspartat aminotransferase in case group was 2.64 - 30.43 and in control group it was 2.16 - 12.02.
Resumo:
Today a major responsibility for the contamination of soil and groundwater and surface water are establishments known as gas stations of fuel which has attracted increasing attention from both the general population as the state agencies of environmental control due to leaks in storage tanks and mainly to disruption of pipe corrosion of tanks and pumping. Other services, like oil changes and car wash are also causes for concern in this type of establishment. These leaks can cause or waste produced, and the contamination of aquifers, serious health problems and public safety, since most of these stations located in urban areas. Based on this, the work was to evaluate soil contamination of a particular service station and fuel sales in the city of Natal, through the quantification of heavy metals like Cd, Cu, Cr, Ni, Pb, Zn of total organic carbon (TOC) and organic matter using different techniques such as optical emission spectrometry with inductively coupled plasma source (ICP OES), Total Organic Carbon analyzer and gravimetric analysis respectively. And also to characterize the soil through particle size analysis. Samples were taken in 21 georeferenced points and collected in the same period. The soils sampled in sampling stations P3, P5, P6, P10, P11, P12, P13, P14, P15, P17, P18 and P20 showed the smallest size fractions ranging from fine sand to medium sand. The other study sites ranged from fine sand to medium sand, except the point P8 showed that only the type size medium sand and P19, indicating a particle size of the coarse type. The small correlation of organic matter with the elements studied in this work suggests that these are not of anthropogenic origin but geochemical support
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Dans ce mémoire, nous étudions un problème de tournées de véhicules dans lequel une flotte privée de véhicules n’a pas la capacité suffisante pour desservir les demandes des clients. Dans un tel cas, on fait appel à un transporteur externe. Ce dernier n’a aucune contrainte de capacité, mais un coût est encouru lorsqu’un client lui est affecté. Il n’est pas nécessaire de mettre tous les véhicules de la flotte privée en service si cette approche se révèle plus économique. L’objectif consiste à minimiser le coût fixe des véhicules, puis le coût variable de transport et le coût chargé par le transporteur externe. Notre travail consiste à appliquer la métaheuristique de recherche adaptative à grand voisinage sur ce problème. Nous comparons nos résultats avec ceux obtenus précédemment avec différentes techniques connues sur les instances de Christofides et celles de Golden.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Dans ce mémoire, nous étudions un problème de tournées de véhicules dans lequel une flotte privée de véhicules n’a pas la capacité suffisante pour desservir les demandes des clients. Dans un tel cas, on fait appel à un transporteur externe. Ce dernier n’a aucune contrainte de capacité, mais un coût est encouru lorsqu’un client lui est affecté. Il n’est pas nécessaire de mettre tous les véhicules de la flotte privée en service si cette approche se révèle plus économique. L’objectif consiste à minimiser le coût fixe des véhicules, puis le coût variable de transport et le coût chargé par le transporteur externe. Notre travail consiste à appliquer la métaheuristique de recherche adaptative à grand voisinage sur ce problème. Nous comparons nos résultats avec ceux obtenus précédemment avec différentes techniques connues sur les instances de Christofides et celles de Golden.
Resumo:
Las condiciones oceanográficas y geoquímicas asociadas al azufre inorgánico fueron estudiadas en la bahía de Paracas para determinar su impacto en los procesos de sulfato-reducción, el intercambio de sulfuro de hidrógeno en la interfaz agua-sedimento y su movilización hacia la fracción precipitada. Se establecieron tres estaciones de muestreo al interior de la bahía entre abril y junio de 2015. La variación espacio-temporal de las especies de azufre inorgánico disuelto (H2S y SO4-2) y precipitado (Acid Volatile Sulfide AVS y Chromium-Reducible Sulfur CRS) se analizaron en relación a los factores ambientales: velocidad de vientos, oxígeno disuelto, temperatura, pH e indicadores de materia orgánica fresca (Cl-a) y de preservación de materia orgánica (COT y NT), así como azufre total (ST). A partir de los análisis de correlación cruzada, se infiere que en las estaciones más profundas hay una mayor correlación entre el oxígeno disuelto y la temperatura que en la estación somera, la correlación de estas variables con la velocidad de viento no fue significativa (p>0.05). Las aguas de fondo en la bahía muestran alternancia entre condiciones hipóxicas (<1,43 mL/L) y micróxicas (<0.10 mL/L) durante otoño con períodos prolongados y con máximas concentraciones de H2S (4,966.76 uM) en los primeros 20 cm del sedimento. El análisis de componentes principales sugiere condiciones más favorables para la sulfato reducción en abril y una mayor oxigenación en junio, a pesar de esto hay una tendencia de incremento de AVS y CRS hacia junio, posiblemente como una respuesta en desfase de las condiciones iniciales, ocasionando una mayor precipitación de monosulfuros de hierro y pirita hacia junio. A pesar de esta precipitación significativa de azufreexisten importantes flujos difusivos de H2S (en promedio de 574.76 μmol.m².d-1), colocando a la bahía de Paracas bajo un escenario de fuente de H2S, que podría alcanzar una condición más severa (2824.94 μmol.m².d-1) durante un evento de aguas blancas.
Resumo:
Des techniques adaptées aux contextes routiers sont nécessaires pour maintenir et réhabiliter des chaussées construites sur pergélisol ou en contexte de gel saisonnier. Plusieurs problématiques peuvent engendrer une augmentation des coûts de réparation et entretien, une diminution de la durée de vie des chaussées et des problèmes reliés à la sécurité des usagers de la route. L’objectif du projet consiste donc à élaborer un outil d’aide à la décision, qui contribuerait à localiser les zones sensibles au gel saisonnier et à la dégradation du pergélisol, à discerner les causes de dégradation des chaussées dues au gel saisonnier et à sélectionner les meilleures stratégies d’atténuation et de réfection à moindre coût. Le projet de recherche est divisé en deux volets distincts. Le premier volet traite des problématiques de gel de chaussées en contexte de gel saisonnier. Actuellement, il existe des méthodes de diagnostic qui permettent de détecter les endroits où un problème de gélivité est susceptible d’être présent. Par contre, ces méthodes ne permettent pas de discerner si le problème de gel est en profondeur ou en surface de la chaussée; en d’autres mots si le problème est lié à un soulèvement différentiel du sol ou à un soulèvement de fissures. De plus, les méthodes utilisées ne sont pas adaptées aux chaussées en contexte municipal. Selon les problématiques connues de certains sites, il a été possible de développer un abaque permettant de différencier si la problématique de gel se situe en surface ou en profondeur dans une chaussée. Puis, une analyse d’imagerie 3D a été réalisée pour complémenter l’abaque créé. À l’aide de cette technologie, une nouvelle méthode sera mise au point pour détecter des problématiques de gel grâce aux profils transversaux. Le deuxième volet porte sur les chaussées construites sur pergélisol. Les méthodes actuelles de détection de la dégradation du pergélisol sous les chaussées manquent de précision et ont besoin d’être raffinées, surtout dans le contexte actuel de réchauffement climatique. Pour ce faire, trois sites d’essais ont été étudiés sur l’Alaska Highway au Yukon. En fonction de différentes analyses telles que des analyses de profils longitudinaux, de la densité spectrale et de longueurs d’onde, des tendances ont été décelées pour caractériser l’instabilité du pergélisol.
Resumo:
En vertu de l’expertise qu’il détient, l’agent public contribue à la réflexion du politique. L’acteur public est en quelque sorte un outil d’aide à la décision. Le paradigme classique en théorie des organisations assume que le bureaucrate est un acteur programmé dont les actions sont guidées par la règlementation et la codification juridico-légale entourant sa pratique. Quant à elle, l’École de la nouvelle gestion publique suppose que l’agent public doit opérer librement selon les indicateurs de la sphère privée ; il doit viser l’efficacité au moindre coût et prioriser la culture du résultat. De plus, dans des conditions respectant l’environnement où se dessine le partage de renseignements, les chercheurs ne s’entendent pas sur le principe de l’allié qui postule conventionnellement que des préférences similaires favorisent la transmission optimale de l’information entre le politique et la fonction publique. Quel modèle prévaut au Québec ? Sous quelles formes s’opérationnalise-t-il en contexte de transfert ? La thèse d’une compatibilité préférentielle est-elle garante d’une translation informationnelle améliorée ? En usant du modèle canonique principal-agent, ce mémoire confronte la croyance répandue voulant que l’État québécois soit foncièrement webérien en adressant certaines des plus importantes conclusions théoriques dans la discipline. Les résultats démontrent que l’appareil d’État est issu d’un croisement entre les deux principaux paradigmes reconnus dans la littérature. Aussi, le mémoire fait état d’une similarité entre l’interprétation traditionnelle de l’ally principle et la réalité empirique retrouvée dans la relation entre le haut fonctionnaire et le législateur québécois. Ultimement, l’étude démontre que l’administrateur d’État est stratégique dans certaines situations qu’il sait instrumentaliser et où il peut occuper un espace discrétionnaire suffisant pour valoriser ses intérêts professionnels et ceux de son organisation.
Resumo:
Poussée par une croissance économique rapide ces trente dernières années, la demande chinoise en matières premières a considérablement augmenté au cours de cette période. Premier importateur mondial de nombreux minerais depuis le début du XXIe siècle, la Chine, qui n’est pas un État côtier de l’Arctique, semble attentive au potentiel économique de la région, et notamment en ce qui a trait à l’exploitation des gisements miniers. Avec l’ouverture relative des accès maritimes à travers les passages arctiques, les entreprises chinoises seraient en mesure d’effectuer des économies sur les coûts de transport et pourraient plus aisément accéder aux gisements miniers du Groenland et de l’Arctique canadien. La montée en puissance de l’économie chinoise, qui s’est concrétisée depuis le début du siècle, son affirmation politique sur la scène mondiale, et sa diplomatie des ressources perçue comme agressive a contribué à développer une perception négative de la Chine au sein des opinions publiques canadiennes, danoises, groenlandaises, et islandaises. Dans un contexte de débats et d’inquiétudes sur les questions de souveraineté dans l’Arctique, les presses canadiennes, groenlandaises et danoises ont contribué à construire, dans leurs opinions publiques respectives ces dernières années, une certaine sinophobie face aux investissements directs à l’étranger chinois, qui débutent réellement en 2005. Par exemple, un sondage mené en 2015 par l’Asia Pacific Foundation of Canada faisait ressortir que près de 76% de la population canadienne était hostile à l’acquisition d’entreprises canadiennes par des entreprises chinoises, tous secteurs confondus. Au Groenland, la perspective d’opérations minières dirigées par des entreprises chinoises a provoqué l’ire des médias danois et groenlandais. Alors que certains dénoncent une stratégie géopolitique chinoise plus large dans cette région du monde, d’autres mettent l’accent sur les implications de la venue de nombreux travailleurs chinois, de même que sur les questions d’une Chine cherchant à assurer un accès à long terme aux ressources de la région, prétextant que le Groenland serait une région d’investissement majeur pour les entreprises chinoises. La Chine, par l’entremise de ses entreprises, chercherait-elle à faire main basse sur les ressources minières de l’Arctique ? L’Arctique canadien, le Groenland et le Grand Nord québécois sont-ils des territoires d’investissements majeurs pour les entreprises chinoises ? Comment les facteurs qui déterminent les choix des entreprises chinoises se sont-ils traduits dans l’Arctique ? Dans le cadre de cette recherche, trente-six entreprises et organes du gouvernement ont été consultés. Les résultats de l’enquête soulignent que ces territoires ne sont pas des régions où les entreprises chinoises investissent d’importantes sommes, mais demeurent attractifs en raison de la stabilité politique et du climat compétitif des affaires qui y règnent, ainsi que pour la qualité des ressources physiques qu’on y retrouve. Cependant, les acteurs chinois soulignent d’importants défis tels que le déficit en matière d’infrastructures maritimes et de communication dans l’Arctique, le manque d’informations sur les opportunités d’affaires, c’est le cas des projets disponibles au Groenland notamment, et les acteurs chinois soulignent également leur manque d’expérience à l’international, de même que le coût et la disponibilité de la main-d’oeuvre comme des défis importants pour les entreprises chinoises. En somme, les investissements des entreprises chinoises dans des projets miniers dans l’Arctique canadien et au Groenland s’insèrent, certes, dans les stratégies globales des entreprises chinoises qui visent à diversifier et sécuriser leurs sources d’approvisionnements. En revanche, s’il apparaît que les territoires arctiques ne sont pas des régions d’investissements majeurs pour les entreprises chinoises dans le secteur extractif, les acteurs chinois sondés raisonnent, de manière générale, selon une logique de marché et recherchent donc, pour la plupart, à assurer la rentabilité de leur entreprise par la réalisation de gains. Outre les fluctuations des prix des matières premières sur les marchés mondiaux qui affectent grandement les opérations minières globales, de nombreux facteurs dans l’Arctique tels que l’éloignement, les conditions météorologiques extrêmes, et le manque d’infrastructures augmentent considérablement le coût de faire des affaires dans le secteur minier dans l’Arctique, qui demeure un marché niche.
Resumo:
Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.