937 resultados para Threshold crypto-graphic schemes and algorithms


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avhandlingen har sitt utspring i mitt engasjement for elevers møte med kunst i grunnskolen i faget kunst og håndverk og mitt syn på ungdom som kompetente bidragsytere til forskningen om fenomener som angår deres liv. Elevene er informanter til, eller aktører i, forskning på fenomenet dialog med kunst. Dialog med kunst er her definert som en helhetlig prosess som innlemmer alt fra elevenes møte med visuelle kunstverk til deres eget skapende arbeid. At avhandlingens fagdidaktiske problemområde er elevers praktisk skapende virksomhet, knytter undersøkelsen til slöjdpedagogisk forskning. Avhandlingens overgripende hensikt er å bidra til utvikling av fagdidaktikken i kunst og håndverk med utgangspunkt i elevenes erfaringer med kunstundervisningens innhold og metode på ungdomsskoletrinnet. Studien består av kasusstudier på to ungdomsskoler. Data ble innsamlet igjennom intervjuer, deltakende observasjon, dokumenter, prosessbøker og foto av formingsprodukter. Ungdoms dialog med kunst i skolen blir analysert og fremstilt ut fra et erfart og et operasjonalisert perspektiv. Funnene speiles i ulike fagdidaktiske tendenser, det vil si ulike hovedoppfatninger i debatten om det moderne samfunn, og i et virksomhetsteoretisk perspektiv. Resultatene fra undersøkelsen utfordrer oss til en fagdidaktisk nyorientering når det gjelder ungdoms møte med kunstverk i skolen, i retning av et mer ungdomskulturelt innhold og relasjonelle kunstmøter som er narrative, tolkningsorientert, opplevelsesorientert, dialogiske og flerstemmige. Undersøkelsen viser at elevene liker det praktisk skapende arbeidet, men at undervisningen i sterkere grad bør ta i bruk digital kunnskap og handle om hvordan kunst kan brukes som utgangspunkt for skapende arbeid, og den bør legge til rette for det læringspotensialet som ligger i dialogen elevene imellom. Elevene liker en undervisning som ikke bare handler om estetiske virkemidler, materialer og teknikker, men også om kommunikasjon og ytringsfrihet. Resultatene viser at det frie skapende arbeid består av tre likeverdige aspekter: det individuelle, det kulturelle og det sosiale. Både funnene og avhandlingens virksomhetsteoretiske perspektiv kan bidra til diskursen om kreativitetsbegrepet og identitetskonstruksjon i vårt moderne samfunn. Virksomhetssystemet blir i denne avhandlingen utviklet til en teori for skapende arbeid i faget kunst og håndverk, et overgripende fagdidaktisk rammeverk for bild/bildkonst og slöjdfaget satt inn i et nordisk utdanningsperspektiv.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ajoneuvojen reititystä on tutkittu 1950-luvulta asti, alunperin etsiessä polttoainekuljetuksille optimaalisinta reittiä varastolta useille palveluasemille. Siitä lähtien ajoneuvon reititystehtäviä on tutkittu akateemisesti ja niistä on muodostettu kymmeniä erilaisia variaatioita. Tehtävien ratkaisumenetelmät jaetaan tyypillisesti tarkkoihin menetelmiin sekä heuristiikkoihin ja metaheuristiikkoihin. Konetehon ja heuristiikoissa käytettävien algoritmien kehittymisen myötä reitinoptimointia on alettu tarjota kaupallisesti. CO-SKY-projektin tavoitteena on kaupallistaa web-pohjainen tai toiminnanohjausjärjestelmään integroitava ajoneuvon reititys. Diplomityössä tutkitaan kuljetustensuunnittelu- ja reitinoptimointiohjelmistojen kaupallistamiseen vaikuttavia keskeisiä ominaisuuksia. Ominaisuuksia on tarkasteltu: 1) erityisesti pk-kuljetusyritysten tarpeiden ja vaatimusten pohjalta, ja 2) markkinoilla olevien ohjelmistojen tarjontaa arvioiden. Näiden pohjalta on myös pyritty arvioimaan kysynnän ja tarjonnan kohtaamista. Pilottiasiakkaita haastattelemalla ohjelmistolle on kyetty asettamaan vaatimuksia, mutta samalla on kuultu käyttäjien mielipiteitä optimoinnista. Lukuisia logistiikkaohjelmistojen tarjoajia on haastateltu logistiikkamessuilla sekä Suomessa että Saksassa. Haastattelujen perusteella on saatu käsitys kyseisistä ohjelmista sekä optimoinnin tarjonnasta että kysynnästä. Akateeminen tutkimus aiheesta on laajaa, koskien niin teknistä toteutusta kuin myös (kysely-)tutkimuksia tarjolla olevien ohjelmistojen ominaisuuksista ja laadusta. Kuljetusyritysten tarpeissa on vaihtelua yritys- ja alakohtaisesti. Perusongelmat ovat samoja, joita reitinoptimoinnin akateemisessa tutkimuksessa käsitellään ja joita kaupalliset ohjelmistot pystyvät ratkaisemaan. Vaikka reitinoptimoinnilla saatavat hyödyt ovat mitattavissa, suunnittelu etenkin pk-yrityksissä tehdään pääosin yhä käsin. Messuhaastattelujen ja loppukäyttäjien mielipiteiden perusteella voidaan todeta kaupallisten ratkaisujen olevan suunniteltu isommille kuljetusyrityksille: tyypillisen it-projektin hinta, käyttöönottoaika ja asennus sekä ratkaisun takaisinmaksuaika vaikuttavat pk-yritysten hankintapäätökseen. Kaupallistamiseen liittyen haasteet liittyvät erityisesti segmentointiin ja markkinointiin asiakasarvon todentamisen ja sen välittämisen kautta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A new area of machine learning research called deep learning, has moved machine learning closer to one of its original goals: artificial intelligence and general learning algorithm. The key idea is to pretrain models in completely unsupervised way and finally they can be fine-tuned for the task at hand using supervised learning. In this thesis, a general introduction to deep learning models and algorithms are given and these methods are applied to facial keypoints detection. The task is to predict the positions of 15 keypoints on grayscale face images. Each predicted keypoint is specified by an (x,y) real-valued pair in the space of pixel indices. In experiments, we pretrained deep belief networks (DBN) and finally performed a discriminative fine-tuning. We varied the depth and size of an architecture. We tested both deterministic and sampled hidden activations and the effect of additional unlabeled data on pretraining. The experimental results show that our model provides better results than publicly available benchmarks for the dataset.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Illnesses related to the heart are one of the major reasons for death all over the world causing many people to lose their lives in last decades. The good news is that many of those sicknesses are preventable if they are spotted in early stages. On the other hand, the number of the doctors are much lower than the number of patients. This will makes the auto diagnosing of diseases even more and more essential for humans today. Furthermore, when it comes to the diagnosing methods and algorithms, the current state of the art is lacking a comprehensive study on the comparison between different diagnosis solutions. Not having a single valid diagnosing solution has increased the confusion among scholars and made it harder for them to take further steps. This master thesis will address the issue of reliable diagnosing algorithm. We investigate ECG signals and the relation between different diseases and the heart’s electrical activity. Also, we will discuss the necessary steps needed for auto diagnosing the heart diseases including the literatures discussing the topic. The main goal of this master thesis is to find a single reliable diagnosing algorithm and quest for the best classifier to date for heart related sicknesses. Five most suited and most well-known classifiers, such as KNN, CART, MLP, Adaboost and SVM, have been investigated. To have a fair comparison, the ex-periment condition is kept the same for all classification methods. The UCI repository arrhythmia dataset will be used and the data will not be preprocessed. The experiment results indicates that AdaBoost noticeably classifies different diseases with a considera-bly better accuracy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Convolutional Neural Networks (CNN) have become the state-of-the-art methods on many large scale visual recognition tasks. For a lot of practical applications, CNN architectures have a restrictive requirement: A huge amount of labeled data are needed for training. The idea of generative pretraining is to obtain initial weights of the network by training the network in a completely unsupervised way and then fine-tune the weights for the task at hand using supervised learning. In this thesis, a general introduction to Deep Neural Networks and algorithms are given and these methods are applied to classification tasks of handwritten digits and natural images for developing unsupervised feature learning. The goal of this thesis is to find out if the effect of pretraining is damped by recent practical advances in optimization and regularization of CNN. The experimental results show that pretraining is still a substantial regularizer, however, not a necessary step in training Convolutional Neural Networks with rectified activations. On handwritten digits, the proposed pretraining model achieved a classification accuracy comparable to the state-of-the-art methods.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In 2003, prostate cancer (PCa) is estimated to be the most commonly diagnosed cancer and third leading cause of cancer death in Canada. During PCa population screening, approximately 25% of patients with a normal digital rectal examination (DRE) and intermediate serum prostate specific antigen (PSA) level have PCa. Since all patients typically undergo biopsy, it is expected that approximately 75% of these procedures are unnecessary. The purpose of this study was to compare the degree of efficacy of clinical tests and algorithms in stage II screening for PCa while preventing unnecessary biopsies from occurring. The sample consisted of 201 consecutive men who were suspected of PCa based on the results of a DRE and serum PSA. These men were referred for venipuncture and transrectal ultrasound (TRUS). Clinical tests included TRUS, agespecific reference range PSA (Age-PSA), prostate specific antigen density (PSAD), and free-to-total prostate specific antigen ratio (%fPSA). Clinical results were evaluated individually and within algorithms. Cutoffs of 0.12 and 0.15 ng/ml/cc were employed for PSAD. Cutoffs that would provide a minimum sensitivity of 0.90 and 0.95, respectively were utilized for %fPSA. Statistical analysis included ROC curve analysis, calculated sensitivity (Sens), specificity (Spec), and positive likelihood ratio (LR), with corresponding confidence intervals (Cl). The %fPSA, at a 23% cutoff ({ Sens=0.92; CI, 0.06}, {Spec=0.4l; CI, 0.09}, {LR=1.56; CI, O.ll}), proved to be the most efficacious independent clinical test. The combination of PSAD (cutoff 0.15 ng/ml/cc) and %fPSA (cutoff 23%) ({Sens=0.93; CI, 0.06}, {Spec=0.38; CI, 0.08}, {LR=1.50; CI, 0.10}) was the most efficacious clinical algorithm. This study advocates the use of %fPSA at a cutoff of 23% when screening patients with an intermediate serum PSA and benign DRE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Low levels of ionizing radiation induce two translocation responses in soybean: a reduction in photoassimilate export from leaves and a change in the distribution pattern of exported photoassimilate within the plant. In this investigation these responses have been further studied specifically to ascertain the site of radiation damage and to better understand the physiological responses observed. Experimentally the primary data was obtained from studies in which a mature trifoliate leaf of a young soybean plant (Glycine ~ L. cultivar Harosoy '63) is isolated in a closed transparent chamber and allowed to photoassimilate 14C02 for 15 minutes. This is followed by an additional 45 ~_il'1;ute period before the plant is sectl.o ne d an d 14 C-ra dl' oactl.v.l ty d eterml. ne d'l n a 11 parts. Such 14c data provides one with the magnitude and distribution pattern of translocation. Further analyses were conducted to determine the relative levels of the major photosynthetic products using the techniques of paper chromatography and autoradiography. Since differences between control and irradiated P 1 ants were not 0 b serve d l' n t h e par tl't"lo nlng 0 f 14 C between the 80% ethanol-soluble and -insoluble fractions 14 or in the relative amounts of C-products of photosynthesis, the reduction in export in irradiated plants is not likely due to reduced availability of translocatable materials. Data presented in this thesis shows that photoassimilate export was not affected by gamma radiation until a threshold dose between 2.0 and 3.0 krads was reached. It was also observed that radiation-induced damage to the export process was capable of recovery in a period of 1 to 2 hours provided high light intensity was supplied. In contrast, the distribution pattern was shown to be extremely radiosensitive with a low threshold dose between .25 and .49 krads. Although this process was also capable of recovery,lt" occurred much earlier and was followed by a secondary effect which lasted at least for the duration of the experiments. The data presented in this thesis is interpreted to suggest that the sites of radiation action for the two translocation responses are different. In regards to photoassimilate export, the site of action of ionizing radiation is the leaf, quite possibly the process of photophosphorylation which may provide energy directly for phloem loading and for membrane integrity of the phloem tissue* In regards to the pattern of distribution of exported photoassimilate, the site is likely the apical sink, possibly the result of changes of levels of endogenous hormones. By the selection of radiation exposure dose and time post-irradiation, it is possible to affect independently these two processes suggesting that each may be regulated independent of the other and involves a distinct site.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Margaret was an only child who grew up on a farm just east of Cayuga, Ontario. After high school, Margaret attended Hamilton Teacher’s College and took a position with Grantham Public School Board and taught at Power Glen school. Margaret was married in 1962 and had 2 children, a daughter and a son in 1963 and 1964, respectively. Margaret left her teaching job to raise her children. Margaret was very creative and artistic and during this time, focused on these talents, which included painting, graphic arts and sewing. Margaret was also an accomplished pianist. In her 40’s, Margaret enrolled at Brock University and in 1989 obtained a Honors Bachelor of Arts degree with First-Class Honors in Sociology. In partial fulfillment of her Honors B.A. she completed her thesis that is entitled ; The State and Liberal Feminism: The Ontario Government’s “Business Ownership For Women Program”. While living in St. Catharines, Margaret attended York University and graduated with a Master of Arts in Sociology in 1992 where her studies focused on women’s issues. Margaret received a scholarship from York University and was a teaching assistant. Margaret stayed on at York University and completed her academic requirements for a Doctorate degree in Sociology. Her dissertation was on self employed women in St. Catharines at the beginning of WWII -- not the” Rosie the Riveters” who took over jobs formerly held by men who had to go off to fight World War II, but women who ran their own businesses when that was still unusual. Margaret completed the research for her thesis but did not complete her written thesis as she made a difficult decision to put her academic work on hold in the mid-1990’s and she returned to her love for the arts, although she always remained a voracious reader and interested in women’s issues. In the last decade of her life, she took up quilting with a passion, which she referred to as fabric arts. Margaret loved colour and being non-traditional. Margaret had been a quilting instructor at the Flemington College for Fine Arts in Haliburton. In 1997, Margaret founded Project Smile in the St. Catharines region, a non-profit group who make quilts for children with cancer. Margaret was also the President of the Niagara Heritage Quilters’ Guild in 2006-2007 and was very involved with the Local Council of Women.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Synchronization of behaviour between individuals has been found to result in a variety of prosocial outcomes. The role of endorphins in vigorous synchronous activities (Cohen, Ejsmond-Frey, Knight, & Dunbar, 2010) may underlie these effects as endorphins have been implicated in social bonding (Dunbar & Shultz, 2010). Although research on synchronous behaviour has noted that there are two dominant phases of synchrony: in-phase and anti-phase (Marsh, Richardson, Baron, & Schmidt, 2006), research on the effect of synchrony on endorphins has only incorporated in-phase synchrony. The current study examined whether both phases of synchrony would generate the synchrony effect. Twenty-two participants rowed under three counterbalanced conditions - alone, in-phase synchrony and anti-phase synchrony. Endorphin release, as measured via pain threshold, was assessed before and after each session. Change in pain threshold during the in-phase synchrony session was significantly higher than either of the other two conditions. These results suggest that the synchrony effect may be specific to just in-phase synchrony, and that social presence is not a viable explanation for the effect of synchrony on pain threshold

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de maîtrise, option droit des affaires (LL.M.)". Ce mémoire a été accepté à l'unanimité et classé parmi les 10% des mémoires de la discipline.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Certains territoires caractérisés par une concentration et une intensification de l’agriculture se trouvent aujourd’hui devant des défis environnementaux et sociaux, notamment en ce qui a trait à la qualité des cadres de vie. À cet effet, une panoplie de mesures agroenvironnementales et de cohabitation (lois, programmes, etc.) sont aujourd’hui à la disposition des professionnels de l’aménagement au Québec. Cette recherche s’interroge sur le potentiel de ces outils à réintroduire le caractère multifonctionnel des territoires, c'est-àdire à assurer la prise en compte simultanée de plusieurs fonctions. Pour ce faire, la mise en oeuvre hypothétique de scénarios d’aménagement multifonctionnel issus d’une recherche antérieure est utilisée comme test. La première étape identifie et analyse les outils favorisant la multifonctionnalité des territoires agricoles et formule des hypothèses quant aux blocages qui pourraient limiter la mise en oeuvre des scénarios multifonctionnels. La deuxième étape teste ces hypothèses en faisant intervenir des groupes de discussion rassemblant divers professionnels de l’aménagement à l’échelle supra locale (municipalité régionale de comté). Les résultats témoignent du potentiel des projets d’aménagement conçus à l’échelle du territoire, notamment ceux visant des regroupements de producteurs. Toutefois, l’étude montre que les blocages ne tiennent pas seulement aux caractéristiques des outils en place, mais aussi à la réticence des professionnels à prendre en compte la notion de cadre de vie en zone d’intensification agricole. Quant à l’utilité pour le monde de la pratique de scénarios d’aménagement multifonctionnel issus d’une recherche universitaire, elle s’en trouverait grandement accrue dans un contexte où les professionnels de l’aménagement participeraient à leur construction.