961 resultados para Cartographic updating
Resumo:
Työssä kartoitettiin teollisuuden palveluliiketoiminnan vaativien toimitusprosessien kehittämistä Lean -ajattelu yritysympäristössä. Tavoitteena oli vaativien toimituspro-sessien ongelmien selvittäminen ja kehittämiskohteiden määrittäminen palveluliike-toiminnan tuottavuuden kehittämisen näkökulmasta. Lisäksi tutkittiin arvovirtakuvauksen soveltuvuutta teollisuuden palveluliiketoiminnan prosessien kehittämiseen. Kirjallisuusosuudessa selvitettiin teollisuuden palveluliiketoiminnan prosessien kehit-tämisen erityispiirteitä ja Lean -ajattelun periaatteita. Tavoitteena on löytää teollisuuden palveluliiketoiminnan kehittämisen erityispiirteet tuottavuuden kannalta ja arvioida niiden soveltuvuutta Lean -ajatteluun. Työn empiirisessä osuudessa kartoitettiin yrityksen vaativat prosessit. Menetelminä työssä käytettiin puolistrukturoitua kyselyä, ryhmähaastattelua, ja osallistuvaa ha-vainnointia. Tutkimuksen tulosten perusteella laadittiin kehityssuunnitelma. Diplomityö käynnisti kohdeorganisaatiossa prosessien päivitysprosessin, ja loi puitteet vaativien toimitusten kehityssuunnitelman toteuttamiselle.
Resumo:
Diplomityön päätavoitteena on vapauttaa pääomaa kohdeyrityksen käyttöpääoman komponenteista tuottavia investointeja varten. Tutkimus on toteutettu konstruktiivisena case-tutkimuksena. Aineistona on tieteellisen kirjallisuuden lisäksi käytetty tilinpäätösraportteja, tuotannossa käytettävien komponenttien ja valmistettavien tuotteiden tuote- ja tuoteryhmäkohtaisia tietoja sekä yrityksen avainhenkilöiden haastatteluja. Kysynnän epävarmuus ja liiketoiminnan kausiluonteisuus aiheuttavat vaihteluita yrityksen käyttöpääomatarpeeseen, ja näihin vaihteluihin yrityksen tulisi kyetä vastaamaan. Työn tuloksia ovat käyttöpääoman ennuste- ja optimimittaristot sekä 16 yritykselle räätälöityä käyttöpääoman hallinnan keinoa. Keinoja ovat muun muassa tilauspisteiden jatkuva päivittäminen ja tiiviimpi toimittajayhteistyö. Mittaaminen, optimitason määrittäminen ja hallintakeinojen määritys ja toteutus muodostavat käyttöpääoman hallinnan syklin, jonka tulisi toistua käyttöpääoman hallinnassa. Käyttöpääomasta vapautunut pääoma tulee sijoittaa yrityksen tuottaviin investointeihin. Investointien myötä yrityksen kannattavuus ja maksuvalmius paranevat. Tulevaisuudessa, parantuneen maksuvalmiuden myötä on käyttöpääoman hallinnan strategia määritettävä uudelleen.
Resumo:
Tämän diplomityön tarkoituksena on tehdä esiselvitys suomalaiselle terveysteknologiayritykselle, miten ISO 13485-standardi vaikuttaa yrityksen ydinprosesseihin ja laatujärjestelmään yleisesti. Yritys on sertifioinut aikaisemmin ISO 9001-laatujärjestelmän. Työn tavoitteena on päivittää yrityksen ydinprosessikuvaukset vastaamaan nykytilaa, tehdä kuiluanalyysi standardien välillä sekä pohtia miten ISO 13485-laatujärjestelmän käyttöönotto voidaan suorittaa yrityksessä. Diplomityössä käytettiin kvalitatiivista tutkimusmenetelmää. Teoriaosiossa tehtiin kirjallisuuskatsaus prosessijohtamiseen, laatujärjestelmiin, ISO 9001- ja ISO 13485-standardien eroavuuksiin sekä ISO 13485-laatujärjestelmän käyttöönottoprojektiin. Työn empiriaosuudessa tarkastellaan yrityksen ydinprosessikuvausten päivittämistä, ISO 13485-standardin vaikutuksia ydinprosesseihin ja yleisesti laatujärjestelmään. Empirian viimeisessä osuudessa pohditaan, miten kohdeyritys voi sertifioida ISO 13485-laatujärjestelmän tulevaisuudessa. Työn aikana suoritettiin case-haastattelu toiseen suomalaiseen terveysteknologia yritykseen, joka on sertifioinut sekä ISO 9001- että ISO 13485-laatujärjestelmät. Case-haastattelusta saatiin käytännön tietoa ISO 13485-laatujärjestelmän käyttöönottoprojektista. Diplomityön tuloksena kohdeyritys saa päivitetyt ydinprosessikuvaukset, kuiluanalyysin standardien välillä sekä suuntaviivoja ISO 13845-laatujärjestelmän sertifiointiin.
Resumo:
Échelle(s) : [Echelles diverses]
Resumo:
Échelle(s) : [ca 1:66 000], échelle de [4] milles [= 9,8 cm]
Resumo:
Échelle(s) : [1:1 400 000 environ], 40 lieues terrestres de 25 au degré [= 12,7 cm]
Resumo:
As we find in Empire and Multitude, Antonio Negri's political project IS a thoroughly Marxist analysis and critique of global or late capitalism. By modifying and updating Marx's conceptual tools, he is able to provide a clear account of capitalism's processes, its expanding reach, and the revolutionary potential that functions as its motor. By turning to Negri's philosophical works, however, we find that this political analysis is founded on a series of concepts and theoretical positions. This paper attempts to clarify this theoretical foundation, highlighting in particular what I term "ontological constructivism" - Negri's radical reworking of traditional ontology. Opposing the long history of transcendence in epistemology and metaphysics (one that stretches from Plato to Kant), this reworked ontological perspective positions individuals - not god or some other transcendent source - as the primary agents responsible for molding the ontological landscape. Combined with his understanding of kairos (subjective, immeasurable time), ontological constructivism lays the groundwork for opposing transcendence and rethinking contemporary politics.
Resumo:
Imaging studies have shown reduced frontal lobe resources following total sleep deprivation (TSD). The anterior cingulate cortex (ACC) in the frontal region plays a role in performance monitoring and cognitive control; both error detection and response inhibition are impaired following sleep loss. Event-related potentials (ERPs) are an electrophysiological tool used to index the brain's response to stimuli and information processing. In the Flanker task, the error-related negativity (ERN) and error positivity (Pe) ERPs are elicited after erroneous button presses. In a Go/NoGo task, NoGo-N2 and NoGo-P3 ERPs are elicited during high conflict stimulus processing. Research investigating the impact of sleep loss on ERPs during performance monitoring is equivocal, possibly due to task differences, sample size differences and varying degrees of sleep loss. Based on the effects of sleep loss on frontal function and prior research, it was expected that the sleep deprivation group would have lower accuracy, slower reaction time and impaired remediation on performance monitoring tasks, along with attenuated and delayed stimulus- and response-locked ERPs. In the current study, 49 young adults (24 male) were screened to be healthy good sleepers and then randomly assigned to a sleep deprived (n = 24) or rested control (n = 25) group. Participants slept in the laboratory on a baseline night, followed by a second night of sleep or wake. Flanker and Go/NoGo tasks were administered in a battery at 1O:30am (i.e., 27 hours awake for the sleep deprivation group) to measure performance monitoring. On the Flanker task, the sleep deprivation group was significantly slower than controls (p's <.05), but groups did not differ on accuracy. No group differences were observed in post-error slowing, but a trend was observed for less remedial accuracy in the sleep deprived group compared to controls (p = .09), suggesting impairment in the ability to take remedial action following TSD. Delayed P300s were observed in the sleep deprived group on congruent and incongruent Flanker trials combined (p = .001). On the Go/NoGo task, the hit rate (i.e., Go accuracy) was significantly lower in the sleep deprived group compared to controls (p <.001), but no differences were found on false alarm rates (i.e., NoGo Accuracy). For the sleep deprived group, the Go-P3 was significantly smaller (p = .045) and there was a trend for a smaller NoGo-N2 compared to controls (p = .08). The ERN amplitude was reduced in the TSD group compared to controls in both the Flanker and Go/NoGo tasks. Error rate was significantly correlated with the amplitude of response-locked ERNs in control (r = -.55, p=.005) and sleep deprived groups (r = -.46, p = .021); error rate was also correlated with Pe amplitude in controls (r = .46, p=.022) and a trend was found in the sleep deprived participants (r = .39, p =. 052). An exploratory analysis showed significantly larger Pe mean amplitudes (p = .025) in the sleep deprived group compared to controls for participants who made more than 40+ errors on the Flanker task. Altered stimulus processing as indexed by delayed P3 latency during the Flanker task and smaller amplitude Go-P3s during the Go/NoGo task indicate impairment in stimulus evaluation and / or context updating during frontal lobe tasks. ERN and NoGoN2 reductions in the sleep deprived group confirm impairments in the monitoring system. These data add to a body of evidence showing that the frontal brain region is particularly vulnerable to sleep loss. Understanding the neural basis of these deficits in performance monitoring abilities is particularly important for our increasingly sleep deprived society and for safety and productivity in situations like driving and sustained operations.
Resumo:
Despite their growing importance, the political effectiveness of social media remains understudied. Drawing on and updating resource mobilization theory and political process theory, this article considers how social media make “political engagement more probable,” and the determinants of success for online social movements. It does so by examining the mainstreaming of the Canadian “user rights” copyright movement, focusing on the Fair Copyright for Canada Facebook page, created in December 2007. This decentralized, grassroots, social media-focused action – the first successful campaign of its kind in Canada and one of the first in the world – changed the terms of the Canadian copyright debate and legitimized Canadian user rights. As this case demonstrates, social media have changed the type and amount of resources needed to create and sustain social movements, creating openings for new groups and interests. Their success, however, remains dependent on the political context within which they operate.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
Les mouches, Sodome et Gomorrhe et Caligula présentent des divinités parodiant et critiquant les dirigeants politiques de l’Occupation (1940-1944), ainsi que l’usage par les dictateurs des idéologies religieuses traditionnelles dans le but de soumettre l’humanité à des régimes totalitaires. Divinités théâtrales autrefois infaillibles et toutes-puissantes, les figures analysées dans ce mémoire relèvent des remises en question de la divinité et du pouvoir politique du XXe siècle. Notre mémoire comporte trois chapitres examinant les discours de ces figures de la divinité sous des angles dramaturgique, sémiologique, philosophique et pragmatique avec comme point de départ l’hypothèse suivante : tout porte à croire qu’en limitant l’emprise de divinités fictives, et ce, en grande partie à travers les failles dans leurs discours, Sartre, Giraudoux et Camus ont tenté de neutraliser les discours correspondants d’hommes réels dans la conscience collective de l’époque. Les auteurs étudiés ont profondément modifié l’image traditionnelle de la divinité théâtrale en minant sa force langagière et en s’interrogeant sur son identité. Les divinités choisies pour cette étude annoncent la décomposition du personnage ayant lieu après 1950 : elles ont un statut dévalorisé de même qu’un langage à la force perlocutoire diminuée. Sans véritable emprise sur l’humanité, dépendant du théâtre, des simulacres, de l’histrionisme, ainsi que des faiblesses humaines, ces divinités caricaturales s’exposent à compromettre leurs régimes et sont réduites à une influence fortement limitée par la liberté des hommes. En actualisant ces mythes et récits ainsi, Sartre, Giraudoux et Camus ont tenté de discréditer, par extension, les dirigeants européens de l’époque.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Cette recherche avait pour objectif d’analyser les évaluations de programmes d’études en langues de spécialité de 1er cycle universitaire afin de dégager les enjeux et la pertinence de ces formations. Trois questions de recherche sont poursuivies : • Quels établissements d’enseignement supérieur canadiens offrent des programmes d’études professionnalisant intégrant des compétences langagières sur objectifs spécifiques et le savoir-faire professionnel? • Compte tenu de la nature et de la fonction des programmes et des cours de langues de spécialité au sein des établissements d’enseignement supérieur, - quels sont les enjeux principaux ? - quelles sont les recommandations les plus fréquentes dans les rapports des évaluateurs externes ? L’analyse révèle que les enjeux principaux sont l’apport des formations aux besoins d’emploi ; la correspondance aux besoins des bénéficiaires ; l’évaluation systématique et justifiée lors de la prise de décisions ; la révision, mise à jour et évaluation systématique des programmes ; la collaboration interdisciplinaire et interuniversitaire ; l’enseignement des compétences langagières de la discipline professionnelle sous-jacente ; l’enseignement de la perspective interculturelle ; l’objectif constitutif ou instrumental de l’acquisition des langues ; la professionnalisation de la discipline au lieu de la fonction « service » ; la promotion de programmes, de collaborations et d’échanges internationaux ; l’intégration des TIC ; et la certification en langue de spécialité. Les évaluateurs externes recommandent la modernisation et la réorganisation des cours, la mise sur pied des collaborations, l’amélioration des formules et de l’offre des échanges internationaux, l’élaboration des stratégies pour étudier et planifier le lancement des initiatives, la promotion des bénéfices des connaissances langagières auprès des autres disciplines et facultés, la création des stratégies de révision de programme, et la mise en place des dispositifs pour profiter de nouvelles ressources technologiques. Ainsi, dans un premier temps, les résultats permettent d’apporter à la didactique des langues un éclairage sur la valeur de la fonction formative des mécanismes d’évaluation de programme. Dans un deuxième temps, ils apportent aux praticiens un éclairage sur la qualité, la pertinence et les enjeux des formations en langue de spécialité et un éclairage sur l’importance et l’impact des pratiques évaluatives sur les décisions prises.
Resumo:
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles.
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.