929 resultados para Shipping process on consignment
Resumo:
Diplomityössä perehdytään Hartwall Lahden tuotantolaitoksen juomanvalmistuksen osaston siiderin ja long drink –juomien valmistusprosessin kehittämiseen. Diplomityön tavoitteena oli löytää prosessin ongelma- ja poikkeamakohtia, tutkia mahdollisia hävikkikohteita ja suorittaa laadun osalta ajoseurantamittauksia. Ongelmakohtien pohjalta laadittiin parannusehdotuksia ja niitä toteutettiin jo tämän projektin aikana. Ongelma- ja poikkeamakohtia tutkittiin ajoprosessin aikana. Hävikkitutkimus kohdennettiin aromiliuoksen annostelulinjaan, nestesokerin an-nostelulinjaan ja tuotteiden alku- ja lopputyönnöille painetankkeihin. Painetankkien osalta mahdollisia hävikkikohteita tutkittiin kokeellisen toiminnan avulla ajo-prosessin aikana. Ajoprosessin käynnistyksen jälkeen selvitettiin milloin valmis tuote on painetankkien venttiilimatriisilla. Uudet parametrit alku- ja lopputyönnöille määritettiin tuoteputken, painetankkien pohjaputkien ja venttiilimatriisin tilavuuksien avulla. Hävikkitutkimuksen tuloksena saatiin pienennettyä hävikkiä ja näin ollen syntyi kustannussäästöjä. Hiilidioksidin sitoutuvuutta tutkittiin mittauksien avulla valmistusprosessin aikana. Mittauksien perusteella havaittiin, että hiilidioksidipitoisuus laskee painetankissa. Tämä johtuu valmiin tuotteen lämpötilamuutoksista. Tuotteen lämpötilaa voidaan tasata esimerkiksi levylämmönvaihtimen avulla.
Resumo:
Diplomityö toteutettiin Yritys X:n toimeksiantona. Työ sai alkunsa Yritys X:n tarpeesta kehittää yrityksen ja sen asiakasomistajien yhteistä tuotetietoprosessia. Tavoitteena oli saada kuvaus tuotetietoprosessin nykytilasta sekä sen pohjalta luoda kehitysehdotukset, joilla prosessia voitaisiin tehostaa. Työssä käytettiin kvalitatiivista eli laadullista tutkimusmenetelmää. Tietoa tuotetietoprosessin nykytilasta etsittiin pääsääntöisesti lukuisten Yritys X:n ja sen asiakasomistajien henkilöstön haastattelujen avulla. Lisäksi työtä tehdessä tutustuttiin laajasti toimitusketjuyhteistyöstä, tiedon läpinäkyvyyden merkityksestä, tiedonhallinnasta ja tuotetietoprosessista kertovaan kirjallisuuteen. Työn tuloksena saatiin kuvaus siitä, miten Yritys X ja sen asiakasomistajat käsittelevät tuotetietoja sekä mitkä ovat tuotetietoprosessin suurimmat haasteet. Tämän pohjalta luotiin kehitysehdotukset, joilla prosessia voitaisiin tehostaa. Tuotetietoprosessin suurimpana haasteena nähtiin olevan se, että koko ryhmittymän yhteistä etua ei ole huomioitu prosessia luodessa sekä se, että prosessissa tehdään päällekkäistä ja manuaalista työtä, joka olisi mahdollista välttää tiedon jakamisen ja sähköisen tiedonsiirron avulla. Tärkeimmiksi kehitysehdotuksiksi muodostui tuotetietoprosessin tarkastelu ja kehittäminen jatkossa kokonaisuutena, yhteistyön ja tiedon jakamisen lisääminen, Yritys X:ltä saatavien tuotetietojen laajempi hyödyntäminen asiakasomistajilla, sähköisen tiedonsiirron merkittävä lisääminen sekä yhtenäisen tuotetietojen laadunhallintajärjestelmän luominen ja sitä myötä tuotetietoprosessin ja sen tehokkuuden mittaaminen.
Resumo:
The purpose of this thesis is to study how and to which extent Finland, Sweden and Norway have adapted their alcohol policies to the framework imposed to them by the EU and the European Economic Area (EEA) since the mid-1990s. This is done by studying the underlying mechanisms that have influenced the formation of alcohol policy in the Nordic countries in that period. As a part of this analysis main differences in alcohol policies and alcohol consumption between the three countries are assessed and the phenomenon of cross-border trade with alcohol is discussed. The study examines also the development of Finnish, Norwegian and Swedish alcohol policies between 1994 and 2012 and compares the Nordic alcohol policies with other alcohol policies in Europe as the situation was in 2012. The time frame of the study spans from the mid-1990s to the end of 2013 and is divided into three phases. Studying the role of the Europeanisation process on the formation of alcohol policies has a key role in the analysis. Besides alcohol policies, the analyses comprise the development of alcohol consumption and cross-border trade with alcohol. In addition, a quantitative scale constructed to measure the strictness of alcohol policies is utilised in the analyses. The results from the scale are used to substantiate the qualitative analysis and to test whether the stereotypical view of a strict Nordic alcohol policy is still true. The results from the study clearly corroborate earlier findings on the significance of Europeanisation and the Single Market for the development of alcohol policies in the Nordic countries. Free movement of goods and unhindered competition have challenged the principle of disinterest and enabled private profit seeking in alcohol trade. The Single Market has also contributed to the increase in availability of alcohol and made it more difficult for the Nordic EU member states to maintain restrictive alcohol policies. All in all, alcohol policies in the Nordic countries are more liberal in 2013 than they were in 1994. Norway, being outside the EU has, however, managed to maintain a stricter alcohol policy than Finland and Sweden. Norway has also been spared from several EU directives that have affected Finland and Sweden, the most remarkable being the abolishment of the travellers’ import quotas for alcohol within the EU. Due to its position as a non-EU country Norway has been able to maintain high alcohol taxes without being subjected to a ”race to the bottom” regarding alcohol taxes the same way as Finland and Sweden. Finland distinguishes as the country that has liberalised its alcohol policy most during the study period. The changes in alcohol policies were not only induced by Europeanisation and the Single Market, but also by autonomous decision-making and political processes in the individual countries. Furthermore, the study shows that alcohol policy measures are implemented more widely in Europe than before and that there is a slow process of convergence going on regarding alcohol policy in Europe. Despite this, alcohol policies in the Nordic countries are still by far the strictest in all of Europe. From a Europeanisation perspective, the Nordic countries were clearly on the receiving end during the first two study phases (1994–2007), having more to adjust to rules from the EU and the Single Market than having success in uploading and shaping alcohol policy on the European and international field. During the third and final study phase (2008–2013), however, the Nordic countries have increasingly succeeded in contributing to shape the alcohol policy arena in the EU and also more widely through the WHOs global alcohol strategy. The restrictive Nordic policy tradition on which the current alcohol policies in Finland, Sweden and Norway were built on has still quite a solid evidence base. Although the basis of the restrictive alcohol policy has crumbled somewhat during the past twenty years and the policies have become less effective, nothing prevents it from being the base for alcohol policy in the Nordic countries even in the long term. In the future, all that is needed for an effective and successful alcohol policy is a solid evidence base, enough political will and support from the general public.
Resumo:
Ensikielen jälkeen opittavan kielen tutkimusta ja suomi toisena kielenä alaa sen osana ovat koko niiden olemassaolon ajan hallinneet samat peruskysymykset: millaista oppiminen on eri vaiheissa ja eri ympäristöissä, sekä mikä oppimisessa on yleistä ja toisaalta mikä riippuu opittavasta kielestä ja oppijoiden kielitaustasta. Sähköisten oppijankielen tutkimusaineistojen eli korpusten lisääntymisen myötä tutkijat voivat aiempaa helpommin tutkia näitä ilmiöitä määrällisesti ja tarkastella oppijankielen sisäistä vaihtelua ja sen suhdetta tyypilliseen ensikieliseen kielenkäyttöön kielen eri osa-alueilla käyttöpohjaisesti eli todelliseen kielenkäyttöön pohjautuen. Tekninen kehitys on tuonut mukanaan aineisto- eli korpusvetoisuuden kaltaisia uusia tapoja lähestyä tutkimusaineistoa, jolloin tyypillisiä tutkimuskysymyksiä ”Miksi?” ja ”Miten?” edeltää kysymys: ”Mikä?”. Tässä väitöskirjassa tarkastellaan edistyneiden suomenoppijoiden kirjoitettua akateemista kieltä ja suhteutetaan suomen oppimiselle ominaisia seikkoja käyttöpohjaisen mallin perusolettamuksiin. Aineisto on suomea toisena kielenä käyttävien opiskelijoiden tenttivastauksia, ja se on osa Edistyneiden suomenoppijoiden korpusta. Tutkimus on osin metodologinen, sillä väitöskirjassa esitellään ja siinä sovelletaan uutta korpusvetoista avainrakenneanalyysi-menetelmää, jonka avulla aineistoa lähestytään ilman hypoteeseja siitä, mitkä kielen ilmiöt ovat ominaisia edistyneelle oppijansuomelle. Tutkimus kuuluu kieliopin tutkimuksen piiriin, ja se nojaa kognitiivisen konstruktiokieliopin ajatukseen abstraktiudeltaan vaihtelevista konstruktioista kielijärjestelmän perusyksiköinä. Tulokset puoltavat menetelmän sovellettavuutta kielen oppimisen tutkimukseen, sillä sen avulla kyettiin tunnistamaan konstruktioita, jotka erottavat edistyneitä oppijoita ensikielisistä kirjoittajista (esim. modaaliset verbiketjut), eri ensikieliä puhuvia suomenoppijoita (esim. konjunktiot) sekä konstruktioita, joiden käyttö muuttuu ajan kuluessa (esim. preteriti ja preesens). Monet havaitut erot ovat akateemisen kirjoittamisen erityispiirteitä, mikä tukee ajatusta kielen käyttö- ja kontekstikohtaisesta oppimisesta. Tuloksia voidaan yhtäältä soveltaa akateemisen kielitaidon opetuksessa. Toisaalta menetelmää voidaan käyttää kielenoppimisen tutkimuksen ohella uusien näkökulmien kartoittamiseksi erilaisten tai eri-ikäisten tekstien tyypillisten ominaisuuksien ja erojen tutkimuksessa.
Resumo:
Umbu pulp is an important product in the economy of the northeastern region of Brazil, and its preservation can be ensured by heat treatment. A complete factorial design with 2 factors (time and temperature) and 3 central points was used to verify the effect of the HTST process on the physicochemical, chemical, physical, microbiological, and sensory qualities of umbu pulps. The results showed that the heat treatments applied resulted in products without significant alterations on the physicochemical, chemical, and microbiological characteristics. With respect to color, the parameters L and a* were altered by increases in temperature indicating by darkening of color. The sensory evaluation indicated that a treatment of 88 °C for 10 seconds was the best processing condition due to the greater similarity of the resulting product to the reference sample (blanched pulp).
Resumo:
The objective of this work was to develop an extruded breakfast product containing broken rice and split old beans and to verify the influence of the extrusion process on their physicochemical, technological, and sensory characteristic. The final product had a protein content of 9.9 g.100 g-1, and therefore it can be considered a good source of proteins for children and teenagers. The dietary fiber content of the final edible product was 3.71 g.100 g-1. Therefore, the breakfast meal may be considered as a source of dietary fiber according to Brazilian law . As for the technological properties, the extruded product presented an expansion index of 8.89 and apparent density of 0.25 g.cm-3. With regard to the sensory analysis, the acceptance average was ranked between 6.8 and 7.7, corresponding to the categories "liked slightly" and "liked very much". With regard to purchase intention, 79% of the panelists said they would certainly or possibly purchase the product. Broken rice and split old beans are interesting alternatives for the elaboration of extruded breakfast products presenting good nutritional, technological, and sensory qualities.
Resumo:
Although Brazil is a country of tradition in both the production and consumption of coffee, the most of the coffee is consumed as a beverage, which reduces greatly the competitiveness on international market, for reducing the chances of supplying the product under other forms of consumption. Owing to that, the aim of this study was developing a precooked mixed flour containing coffee powder and rice for use in coffee flavored products. Mixtures of rice and coffee in the proportions of 900:100, 850:150 and 800:200 g, respectively, were processed in a single screw extruder (Brabender DS-20, Duisburg, German) and the effect of the extrusion process on the variables moisture content (16%, 18% and 20%) and temperature in the third extruding zone (140 °C, 160 °C and 180 °C) was studied. The results for expansion index ranged from 2.91 to 11.11 mm in diameter; the water absorption index from 4.59 to 6.33 g gel/g sample and the water solubility index varied from 4.05% to 8.57%. These results showed that, despite coffee powder influenced the variables studied, the expanded product after milling resulted in a extruded mixture with good absorption and water solubility indices, which favors the use of the precooked mixed flour for human consumption.
Resumo:
The supersweet (Sh2) corn seeds have a thin tegument and an irregular shape, which hinder the sowing procedure. As a function of those factors, the significance of using the pelleting process to improve sowing and standardize the stand of plants in the field without the need of thinning within the row is emphasized. Although this technique has already been known for many years, little has been studied on the effect of such procedure on the plantability and on the moisture content of the supersweet corn seeds. Therefore, this research work aimed at evaluating the effects of pelleting on the moisture content of the seeds along the storing process, on the occurrence of gaps on seed deposition and on the dropping of double seeds, with the aid of a testing seeder. Other physical attributes of seeds and pellets were also evaluated through tests of fragmentation, screen retention, mass of a thousand seeds and apparent volume. Results have shown an increase on the mass and on the volume of the pelleted seeds that presented highly resistance to cracks and breaking. The pelleting was efficient on the reduction of gaps and on the deposition of double seeds at sowing, thus providing highly satisfactory results for these attributes. An increase on the seed moisture content was also observed as a function of storage with a significant reduction on this factor after the pelleting procedure. Results allow concluding that the pelleting process reduces seed moisture content and improves plantability, positively affecting the efficiency of the sowing process.
Resumo:
Photosynthesis in general is a key biological process on Earth and Photo system II (PSII) is an important component of this process. PSII is the only enzyme capable of oxidizing water and is largely responsible for the primordial build-up and present maintenance of the oxygen in the atmosphere. This thesis endeavoured to understand the link between structure and function in PSII with special focus on primary photochemistry, repair/photodamage and spectral characteristics. The deletion of the PsbU subunit ofPSII in cyanobacteria caused a decoupling of the Phycobilisomes (PBS) from PSII, likely as a result of increased rates of PSII photodamage with the PBS decoupling acting as a measure to protect PSII from further damage. Isolated fractions of spinach thylakoid membranes were utilized to characterize the heterogeneity present in the various compartments of the thylakoid membrane. It was found that the pooled PSIILHCII pigment populations were connected in the grana stack and there was also a progressive decrease in the reaction rates of primary photochemistry and antennae size of PSII as the sample origin moved from grana to stroma. The results were consistent with PSII complexes becoming damaged in the grana and being sent to the stroma for repair. The dramatic quenching of variable fluorescence and overall fluorescent yield of PSII in desiccated lichens was also studied in order to investigate the mechanism by which the quenching operated. It was determined that the source of the quenching was a novel long wavelength emitting external quencher. Point mutations to amino acids acting as ligands to chromophores of interest in PSII were utilized in cyanobacteria to determine the role of specific chromophores in energy transfer and primary photochemistry. These results indicated that the Hl14 ligated chlorophyll acts as the 'trap' chlorophyll in CP47 at low temperature and that the Q130E mutation imparts considerable changes to PSII electron transfer kinetics, essentially protecting the complex via increased non-radiative charge Photosynthesis in general is a key biological process on Earth and Photo system II (PSII) is an important component of this process. PSII is the only enzyme capable of oxidizing water and is largely responsible for the primordial build-up and present maintenance of the oxygen in the atmosphere. This thesis endeavoured to understand the link between structure and function in PSII with special focus on primary photochemistry, repair/photodamage and spectral characteristics. The deletion of the PsbU subunit ofPSII in cyanobacteria caused a decoupling of the Phycobilisomes (PBS) from PSII, likely as a result of increased rates of PSII photodamage with the PBS decoupling acting as a measure to protect PSII from further damage. Isolated fractions of spinach thylakoid membranes were utilized to characterize the heterogeneity present in the various compartments of the thylakoid membrane. It was found that the pooled PSIILHCII pigment populations were connected in the grana stack and there was also a progressive decrease in the reaction rates of primary photochemistry and antennae size of PSII as the sample origin moved from grana to stroma. The results were consistent with PSII complexes becoming damaged in the grana and being sent to the stroma for repair. The dramatic quenching of variable fluorescence and overall fluorescent yield of PSII in desiccated lichens was also studied in order to investigate the mechanism by which the quenching operated. It was determined that the source of the quenching was a novel long wavelength emitting external quencher. Point mutations to amino acids acting as ligands to chromophores of interest in PSII were utilized in cyanobacteria to determine the role of specific chromophores in energy transfer and primary photochemistry. These results indicated that the Hl14 ligated chlorophyll acts as the 'trap' chlorophyll in CP47 at low temperature and that the Q130E mutation imparts considerable changes to PSII electron transfer kinetics, essentially protecting the complex via increased non-radiative charge.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LL.M. Droit Dans le cadre du programme de Maîtrise en droit(LL.M.) 2-325-1-0 en option recherche et droit des affaires"
Resumo:
La consolidation est le processus qui transforme une nouvelle trace mnésique labile en une autre plus stable et plus solide. Une des tâches utilisées en laboratoire pour l’exploration de la consolidation motrice dans ses dimensions comportementale et cérébrale est la tâche d’apprentissage de séquences motrices. Celle-ci consiste à reproduire une même série de mouvements des doigts, apprise de manière implicite ou explicite, tout en mesurant l’amélioration dans l’exécution. Les études récentes ont montré que, dans le cas de l’apprentissage explicite de cette tâche, la consolidation de la trace mnésique associée à cette nouvelle habileté dépendrait du sommeil, et plus particulièrement des fuseaux en sommeil lent. Et bien que deux types de fuseaux aient été décrits (lents et rapides), le rôle de chacun d’eux dans la consolidation d’une séquence motrice est encore mal exploré. En effet, seule une étude s’est intéressée à ce rôle, montrant alors une implication des fuseaux rapides dans ce processus mnésique suite à une nuit artificiellement altérée. D’autre part, les études utilisant l’imagerie fonctionnelle (IRMf et PET scan) menées par différentes équipes dont la notre, ont montré des changements au niveau de l’activité du système cortico-striatal suite à la consolidation motrice. Cependant, aucune corrélation n’a été faite à ce jour entre ces changements et les caractéristiques des fuseaux du sommeil survenant au cours de la nuit suivant un apprentissage moteur. Les objectifs de cette thèse étaient donc: 1) de déterminer, à travers des enregistrements polysomnographiques et des analyses corrélationnelles, les caractéristiques des deux types de fuseaux (i.e. lents et rapides) associées à la consolidation d’une séquence motrice suite à une nuit de sommeil non altérée, et 2) d’explorer, à travers des analyses corrélationnelles entre les données polysomnographiques et le signal BOLD (« Blood Oxygenated Level Dependent »), acquis à l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), l’association entre les fuseaux du sommeil et les activations cérébrales suite à la consolidation de la séquence motrice. Les résultats de notre première étude ont montré une implication des fuseaux rapides, et non des fuseaux lents, dans la consolidation d’une séquence motrice apprise de manière explicite après une nuit de sommeil non altérée, corroborant ainsi les résultats des études antérieures utilisant des nuits de sommeil altérées. En effet, les analyses statistiques ont mis en évidence une augmentation significative de la densité des fuseaux rapides durant la nuit suivant l’apprentissage moteur par comparaison à la nuit contrôle. De plus, cette augmentation corrélait avec les gains spontanés de performance suivant la nuit. Par ailleurs, les résultats de notre seconde étude ont mis en évidence des corrélations significatives entre l’amplitude des fuseaux de la nuit expérimentale d’une part et les gains spontanés de performance ainsi que les changements du signal BOLD au niveau du système cortico-striatal d’autre part. Nos résultats suggèrent donc un lien fonctionnel entre les fuseaux du sommeil, les gains de performance ainsi que les changements neuronaux au niveau du système cortico-striatal liés à la consolidation d’une séquence motrice explicite. Par ailleurs, ils supportent l’implication des fuseaux rapides dans ce type de consolidation ; ceux-ci aideraient à l’activation des circuits neuronaux impliqués dans ce processus mnésique et amélioreraient par la même occasion la consolidation motrice liée au sommeil.
Resumo:
Introduction : Les enfants prématurés ont la particularité de naître alors que leur développement est souvent incomplet et nécessite la mise en œuvre de soins intensifs visant à poursuivre leur croissance en dehors de l’environnement utérin. Souvent cependant, le stade développemental de l’enfant ne lui permet pas d’assimiler une alimentation entérale du fait de l’immaturité de son système digestif. Le recours à une voie centrale délivrant les nutriments assurant le développement devient alors une nécessité. Ce type de nutrition, appelée nutrition parentérale (NP, ou total parenteral nutrition TPN), permet l’administration de molécules simples, directement dans le sang du prématuré. Il n’est toutefois pas exempt de risques puisqu’exposée à la lumière, la NP peut s’oxyder et générer des molécules oxydantes telles que des hydroperoxydes lipidiques susceptibles de se fragmenter par la suite en hydroxy-alkénals. Ceci devient problématique au vu de l’immaturité des systèmes de défenses antioxydants du nouveau-né prématuré. L’utilisation prolongée de la NP est d’ailleurs à l’origine de maladie hépatiques dans lesquelles le stress oxydant et la nécro-inflammation sont des composantes majeures. Nous avons émis l’hypothèse que l’infusion chez les enfants prématurés, d’aldéhydes d’origine lipidique est en relation avec le développement du stress oxydant et de l’inflammation hépatique. Objectif : Notre étude a consisté à évaluer la relation entre les quantités d’hydroxy-alkénals dans la NP et les effets hépatiques engendrés sur les marqueurs de stress oxydant et les voies de signalisation responsables d’une induction de processus inflammatoire. Dans ce but, nous avons cherché à mesurer la peroxydation lipidique dans l’émulsion lipidique de la NP et la conséquence de l’infusion en continue d’hydroxy-alkénals sur les marqueurs de stress oxydant, sur la voie de signalisation médiée par le Nuclear Factor κB et sur le déclenchement du processus inflammatoire hépatique. A la suite de ce travail, nous avons également travaillé sur des alternatives à la photoprotection, qui est la seule méthode réellement optimale pour réduire la peroxydation des lipides de la NP, mais cliniquement difficilement praticable. Résultats : Nos résultats ont mis en évidence la génération de 4-hydroxynonenal in vitro dans la NP, ce phénomène est augmenté par une exposition lumineuse. Dans ce cadre, nous avons montré l’inefficacité de l’ajout de multivitamines dans l’émulsion lipidique comme alternative à la photoprotection. Dans la validation biologique qui a suivi sur un modèle animal, nos résultats ont permis de démontrer que l’augmentation des adduits glutathion-hydroxynonenal était imputable à l’augmentation de 4-hydroxynonenal (4-HNE) dans la NP, et non à une peroxydation endogène. Nos données indiquent que la probable augmentation hépatique des niveaux de 4-HNE a conduit à une activation du NFκB responsable de l’activation de la transcription des gènes pro-inflammatoires du Tumour Necrosis Factor-α (TNF-α) et de l’interleukine-1 (IL-1). Nous avons alors évalué la capacité d’une émulsion lipidique enrichie en acides gras polyinsaturés (AGPI) n-3 à baisser les concentrations de 4-HNE dans la NP, mais également à moduler le stress oxydant et les marqueurs pro-inflammatoires. Enfin, nous avons démontré, en collaboration avec l’équipe du Dr Friel, que certains peptides isolés du lait humain (par un processus mimant la digestion) permettent également une modulation du stress oxydant et du processus inflammatoire. Conclusion : Le stress oxydant exogène issu de la NP a conduit par activation de facteurs de transcription intra-hépatiques au déclenchement d’un processus inflammatoire potentiellement responsable du développement de maladies hépatiques reliées à la NP telle que la cholestase. Dans ce sens, les AGPI n-3 et les peptides antioxydants peuvent se poser en tant qu’alternatives crédibles à la photoprotection.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Le diabète est une maladie chronique de l’homéostasie du glucose caractérisée par une hyperglycémie non contrôlée qui est le résultat d’une défaillance de la sécrétion d’insuline en combinaison ou non avec une altération de l’action de l’insuline. La surnutrition et le manque d’activité physique chez des individus qui ont des prédispositions génétiques donnent lieu à la résistance à l’insuline. Pendant cette période dite de compensation où la concentration d’acides gras plasmatiques est élevée, l’hyperinsulinémie compense pleinement pour la résistance à l’insuline des tissus cibles et la glycémie est normale. Le métabolisme du glucose par la cellule pancréatique bêta entraîne la sécrétion d’insuline. Selon le modèle classique de la sécrétion d’insuline induite par le glucose, l’augmentation du ratio ATP/ADP résultant de la glycolyse et de l’oxydation du glucose, induit la fermeture des canaux KATP-dépendant modifiant ainsi le potentiel membranaire suivi d’un influx de Ca2+. Cet influx de Ca2+ permet l’exocytose des granules de sécrétion contenant l’insuline. Plusieurs nutriments comme les acides gras sont capables de potentialiser la sécrétion d’insuline. Cependant, le modèle classique ne permet pas d’expliquer cette potentialisation de la sécrétion d’insuline par les acides gras. Pour expliquer l’effet potentialisateur des acides gras, notre laboratoire a proposé un modèle complémentaire où le malonyl-CoA dérivé du métabolisme anaplérotique du glucose inhibe la carnitine palmitoyltransférase-1, l’enzyme qui constitue l’étape limitante de l’oxydation des acides gras favorisant ainsi leur estérification et donc la formation de dérivés lipidiques signalétiques. Le modèle anaplérotique/lipidique de la sécrétion d'insuline induite par le glucose prédit que le malonyl-CoA dérivé du métabolisme du glucose inhibe la bêta-oxydation des acides gras et augmente la disponibilité des acyl-CoA ou des acides gras non-estérifiés. Les molécules lipidiques agissant comme facteurs de couplage du métabolisme des acides gras à l'exocytose d'insuline sont encore inconnus. Des travaux réalisés par notre laboratoire ont démontré qu’en augmentant la répartition des acides gras vers la bêta-oxydation, la sécrétion d’insuline induite par le glucose était réduite suggérant qu’un des dérivés de l’estérification des acides gras est important pour la potentialisation sur la sécrétion d’insuline. En effet, à des concentrations élevées de glucose, les acides gras peuvent être estérifiés d’abord en acide lysophosphatidique (LPA), en acide phosphatidique (PA) et en diacylglycérol (DAG) et subséquemment en triglycérides (TG). La présente étude a établi l’importance relative du processus d’estérification des acides gras dans la production de facteurs potentialisant la sécrétion d’insuline. Nous avions émis l’hypothèse que des molécules dérivées des processus d’estérification des acides gras (ex : l’acide lysophosphatidique (LPA) et le diacylglycerol (DAG)) agissent comme signaux métaboliques et sont responsables de la modulation de la sécrétion d’insuline en présence d’acides gras. Afin de vérifier celle-ci, nous avons modifié le niveau d’expression des enzymes clés contrôlant le processus d’estérification par des approches de biologie moléculaire afin de changer la répartition des acides gras dans la cellule bêta. L’expression des différents isoformes de la glycérol-3-phosphate acyltransférase (GPAT), qui catalyse la première étape d’estérification des acides gras a été augmenté et inhibé. Les effets de la modulation de l’expression des isoenzymes de GPAT sur les processus d’estérifications, sur la bêta-oxydation et sur la sécrétion d’insuline induite par le glucose ont été étudiés. Les différentes approches que nous avons utilisées ont changé les niveaux de DAG et de TG sans toutefois altérer la sécrétion d’insuline induite par le glucose. Ainsi, les résultats de cette étude n’ont pas associé de rôle pour l’estérification de novo des acides gras dans leur potentialisation de la sécrétion d’insuline. Cependant, l’estérification des acides gras fait partie intégrante d’un cycle de TG/acides gras avec sa contrepartie lipolytique. D’ailleurs, des études parallèles à la mienne menées par des collègues du laboratoire ont démontré un rôle pour la lipolyse et un cycle TG/acides gras dans la potentialisation de la sécrétion d’insuline par les acides gras. Parallèlement à nos études des mécanismes de la sécrétion d’insuline impliquant les acides gras, notre laboratoire s’intéresse aussi aux effets négatifs des acides gras sur la cellule bêta. La glucolipotoxicité, résultant d’une exposition chronique aux acides gras saturés en présence d’une concentration élevée de glucose, est d’un intérêt particulier vu la prépondérance de l’obésité. L’isoforme microsomal de GPAT a aussi utilisé comme outil moléculaire dans le contexte de la glucolipotoxicité afin d’étudier le rôle de la synthèse de novo de lipides complexes dans le contexte de décompensation où la fonction des cellules bêta diminue. La surexpression de l’isoforme microsomal de la GPAT, menant à l’augmentation de l’estérification des acides gras et à une diminution de la bêta-oxydation, nous permet de conclure que cette modification métabolique est instrumentale dans la glucolipotoxicité.
Resumo:
Dans de nombreux comportements qui reposent sur le rappel et la production de séquences, des groupements temporels émergent spontanément, créés par des délais ou des allongements. Ce « chunking » a été observé tant chez les humains que chez certains animaux et plusieurs auteurs l’attribuent à un processus général de chunking perceptif qui est conforme à la capacité de la mémoire à court terme. Cependant, aucune étude n’a établi comment ce chunking perceptif s’applique à la parole. Nous présentons une recension de la littérature qui fait ressortir certains problèmes critiques qui ont nui à la recherche sur cette question. C’est en revoyant ces problèmes qu’on propose une démonstration spécifique du chunking perceptif de la parole et de l’effet de ce processus sur la mémoire immédiate (ou mémoire de travail). Ces deux thèmes de notre thèse sont présentés séparément dans deux articles. Article 1 : The perceptual chunking of speech: a demonstration using ERPs Afin d’observer le chunking de la parole en temps réel, nous avons utilisé un paradigme de potentiels évoqués (PÉ) propice à susciter la Closure Positive Shift (CPS), une composante associée, entre autres, au traitement de marques de groupes prosodiques. Nos stimuli consistaient en des énoncés et des séries de syllabes sans sens comprenant des groupes intonatifs et des marques de groupements temporels qui pouvaient concorder, ou non, avec les marques de groupes intonatifs. Les analyses démontrent que la CPS est suscitée spécifiquement par les allongements marquant la fin des groupes temporels, indépendamment des autres variables. Notons que ces marques d’allongement, qui apparaissent universellement dans la langue parlée, créent le même type de chunking que celui qui émerge lors de l’apprentissage de séquences par des humains et des animaux. Nos résultats appuient donc l’idée que l’auditeur chunk la parole en groupes temporels et que ce chunking perceptif opère de façon similaire avec des comportements verbaux et non verbaux. Par ailleurs, les observations de l’Article 1 remettent en question des études où on associe la CPS au traitement de syntagmes intonatifs sans considérer les effets de marques temporels. Article 2 : Perceptual chunking and its effect on memory in speech processing:ERP and behavioral evidence Nous avons aussi observé comment le chunking perceptif d’énoncés en groupes temporels de différentes tailles influence la mémoire immédiate d’éléments entendus. Afin d’observer ces effets, nous avons utilisé des mesures comportementales et des PÉ, dont la composante N400 qui permettait d’évaluer la qualité de la trace mnésique d’éléments cibles étendus dans des groupes temporels. La modulation de l’amplitude relative de la N400 montre que les cibles présentées dans des groupes de 3 syllabes ont bénéficié d’une meilleure mise en mémoire immédiate que celles présentées dans des groupes plus longs. D’autres mesures comportementales et une analyse de la composante P300 ont aussi permis d’isoler l’effet de la position du groupe temporel (dans l’énoncé) sur les processus de mise en mémoire. Les études ci-dessus sont les premières à démontrer le chunking perceptif de la parole en temps réel et ses effets sur la mémoire immédiate d’éléments entendus. Dans l’ensemble, nos résultats suggèrent qu’un processus général de chunking perceptif favorise la mise en mémoire d’information séquentielle et une interprétation de la parole « chunk par chunk ».