16 resultados para répartition

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La relation entre l'espace tablette et les ventes a été l'une des toutes premières à être analysée dans la littérature traitant du commerce au détail. Cette relation tait aussi assez souvent les manchettes des journaux. Récemment, par exemple, on rapportait que Coke et Pepsi avaient "éliminé", à l'aide d'ententes à long terme avec les détaillants, l'espace accordé à tous les autres fabricants de boissons gazeuses. L'effet de l'espace tablette sur les ventes demeure donc un problème important et d'actualité…

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude a comme objectif d'évaluer l'impact du stage pratique comme situation d'apprentissage dans le développement de l'identité professionnelle. Le cadre conceptuel fait référence à une perspective interactionniste où transige une dialectique entre le sujet et le monde de la socialisation professionnelle: donc, d'une identité négociée en fonction des valeurs du milieu d'éducation et des intérêts de l'individu. Des mesures de ce construit sont prises en compte avant et après la réalisation du stage, puis sont comparées au construit collectif associé aux milieux de stage. Le choix méthodologique s'est porté vers la méthode Q qui s'avère une approche compatible avec l'étude des systèmes de valeurs des individus (Stephenson, 1953). Ainsi, la technique du Q-Sort consiste en une priorisation impliquant un tri d'énoncés de nature qualitative. Le traitement statistique permet ensuite d'examiner l'interrelation d'attitudes individuelles privilégiées par un groupe de répondants. L'échantillon se compose de stagiaires en milieux de garde du collégial (n= ll), de niveau universitaire (n=12) et d'éducatrices (n=81 ) provenant du Québec, de la France, de la Belgique et du Mali. Le Q-sort se compose de 79 énoncés distribués selon une répartition quasi-normale à choix forcés dans sept catégories. L'analyse statistique porte sur les matrices inversées de données afin d'évaluer le degré de rapprochement entre les individus dans la priorisation des valeurs en se basant sur les corrélations et les analyses factorielles. Les résultats mettent en évidence le degré de rapprochement entre les systèmes de valeurs des éducatrices québécoises et ceux des intervenants des autres pays. Quant à l'impact du stage sur les étudiantes, celui-ci se traduit par un éloignement, un rapprochement ou un maintien aux valeurs des éducatrices des milieux de garde. L'étude démontre qu'il s'avère possible d'évaluer l'impact de la formation pratique sur les valeurs liées à l'identité professionnelle tant sur le plan qualitatif que quantitatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que la pratique de redresser les états financiers pour les rendre conformes à la méthode de l'impôt exigible semble répandue parmi les analystes financiers, les organismes de normalisation en Amérique du Nord s'attachent à la formule d'application de la méthode du report intégral d'impôt. De son côté, la présente étude vise à contribuer au débat, toujours en cours, entre cette dernière méthode et celle de l'impôt exigible. Conséquemment, la première hypothèse posée est à l'effet que le contenu informationnel de la méthode du report d'impôt intégral et fixe, en vigueur au Canada, est plus grand que celui de la méthode de l'impôt exigible. Selon la deuxième hypothèse, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ont un contenu informationnel. Ces deux hypothèses sont testées empiriquement en s'intéressant, plus spécifiquement, aux réactions individuelles d'un échantillon d'utilisateurs d'états financiers, lors d'une expérimentation en laboratoire utilisant un devis intra-groupes. Au total, 152 questionnaires ont été reçus, dont 119 pour les comptables agréés du secteur industriel et affaires de la région de Montréal et 33 pour les membres de l'Association des analystes financiers de Montréal. Les résultats permettent de conclure que la méthode du report d'impôt intégral et fixe implique un contenu informationnel plus grand que la méthode de l'impôt exigible. Toutefois, les renseignements sur les écarts temporaires fournis par voie de notes aux états financiers ne montrent un contenu informationnel, d'une façon statistiquement significative, que pour une des variables dépendantes de l'expérimentation. Globalement, les résultats semblent démontrer la nécessité d'un certain degré de répartition des impôts et indiquer un besoin de renseignements complémentaires sur les écarts temporaires. De plus, on peut raisonnablement avancer que les résultats appuient le SFAS No 109 du FASB, promulgué en 1992 aux États-Unis, exigeant la méthode dite de l'actif et du passif. Les résultats mitigés de l'expérimentation en laboratoire et surtout la diversité des réponses, aux mesures directes explicites et implicites de l'utilisation des informations sur les écarts temporaires, semblent confirmer qu'il y a également une très grande diversité dans la façon de considérer ces dernières informations en pratique. La présente étude soulève plusieurs avenues de recherches dont celle, apparaissant particulièrement prometteuse, sur les écarts temporaires causés par les différences entre l'amortissement comptable et fiscal, mais cette fois-ci, en contexte de décroissance d'une entreprise. On peut donc conclure que la comptabilisation des impôts est loin d'avoir fini de faire couler de l'encre...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Université Bishop's de Lennoxville est née d'un défi de l'anglicanisme de s'implanter dans une région colonisée par des Américains dans une province en majeure partie francophone. Troisième plus ancienne université du Québec, Bishop's célèbrera en décembre de cette année 1993, son 150 ième anniversaire. Bien qu'elle soit petite, avec un effectif de seulement 2000 étudiants, Bishop's quand même réussît à attirer des étudiants non seulement du Québec mais de toutes les autres provinces ainsi que de l'étranger. Le cas de Bishop's est unique étant donné qu'elle est la seule université anglophone du Québec établie dans une région rurale. De plus, n'offrant que des programmes de premier cycle, elle perd le pouvoir d'attraction des programmes de deuxième et troisième cycles ainsi que celui des facultés des professions libérales telles que le droit, le génie ou la médecine. Les responsables de l'université s'interrogent sur les raisons qui aujourd'hui amènent un étudiant à choisir Bishop's plutôt qu'une autre université pour entreprendre ses études. Leur problème n'est pas autant d'augmenter le nombre total d'étudiants inscrits que surtout celui de changer la composition du corps estudiantin afin qu'un plus grand pourcentage provienne de la province du Québec. Conscients de l'énorme potentiel que représente le marché francophone, ils voudraient tout en maintenant la participation présente des anglophones du Québec, développer des stratégies qui leur permettront d'attirer un plus grand nombre d'étudiants francophones. Les mesures prises par l'administration durant les deux dernières années académiques ont été d'accorder des proportions de plus en plus importantes du budget de recrutement aux cegeps francophones. Confrontés à notre tour à ce problème, nous avons décidé de le résoudre d'une manière plus globale et plus approfondie. Une revue préliminaire de la littérature s'est avérée insuffisante. La recherche dans ce domaine foisonne en études de préférences visant surtout à faire des prévisions au sujet des admissions futures dans le but d'attirer le plus de candidats possible sans se soucier de l'origine régionale, ethnique ou linguistique des étudiants. Afin d'attirer tel groupe d'étudiants plutôt qu'un autre, les responsables devraient tout d'abord enquêter sur les attributs d'une université qui sont importants pour chaque groupe et déterminer si ces attributs diffèrent d'un groupe à un autre. C'est pour cette raison que nous avons mené auprès des étudiants de Bishop's une étude de préférences afin de trouver le message qui doit être véhiculé lors des activités de recrutement. De plus, comme mentionné plus haut, les responsables consacrent une partie du budget à ces activités. Apporter un changement au corps étudiant devient par conséquent un problème de gestion des efforts de recrutement. Nous avons pour cela développé un modèle basé sur une fonction de réponse visant à établir une relation entre les demandes d'inscriptions et différentes autres variables telles que le potentiel du marché, les sommes allouées au recrutement, la distance qui sépare la région d'origine de Bishop's, et enfin un effet de langue qui différencierait la réponse des francophones de celle des anglophones. Ce modèle permet d'élaborer une règle de répartition du budget relativement facile à mettre en oeuvre et qui aiderait les responsables à optimiser la composition du corps étudiant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Amérique latine se caractérise comme une région ayant la pire répartition de la richesse et le Mexique n'y fait pas exception. Malgré que la dernière décennie lui ait apporté la stabilisation économique et la libéralisation des échanges commerciaux, l'écart entre les riches et les pauvres continue de croître. Pour certains experts, la cause principale de cette situation réside dans les effets de la mondialisation. Bien qu'ils contribuent à déstabiliser les économies locales, d'autres éléments présents au Mexique menacent autant le développement durable des communautés mexicaines. Notons la fragilité des démocraties, la faiblesse des institutions financières, les histoires de corruption et de trafic de drogue, l'exclusion sociale et la dégradation de l'environnement. Plusieurs programmes de développement socioéconomiques ont été mis en place par différents gouvernements mexicains. Que ce soit, des programmes en matière de santé et d'éducation, des programmes alimentaires et agricoles ou de construction d'infrastructures, ils visent essentiellement à réduire la pauvreté en milieux ruraux. Les problèmes sociaux en zones urbaines ne font pas partie des priorités actuelles de l'agenda politique du gouvernement fédéral. Les communautés urbaines doivent donc se tourner vers d'autres moyens pour assurer leur développement et, la micro-finance est l'une des solutions qui a depuis longtemps fait ses preuves en matière de mobilisation des populations hasardeuses. En effet, elle permet aux populations exclues des systèmes financiers traditionnels d'avoir un plus grand contrôle de leur avenir par l'auto emploi et par le développement endogène de leur communauté. Elle introduit donc une dynamique d'autonomie et vise des changements économiques et sociaux à long terme. Par contre, une des plus grandes erreurs commises est pourtant de prétendre que la micro-finance est le remède de toutes les calamités. Les besoins des populations moins nanties en zones urbaines ne se limitent pas aux besoins de financement. Les pauvres ont également besoin de logements salubres, d'eau potable, d'électricité, de soins de santé, d'écoles et d'infrastructure, ce en quoi tout être humain est en droit de posséder. De plus, le développement durable n'est pas qu'une question de solution aux problèmes de pauvreté, il concerne également tous les citadins. Lorsque l'on parle de qualité de vie, on parle également d'emplois disponibles, de revitalisation de quartiers, d'aménagement d'espaces verts, de construction de centres sportifs et culturels, pour en nommer que quelques-uns. En l'absence de volonté ou de moyens politiques en la matière, la coopérative d'épargne et de crédit peut-elle être un levier de développement local pour une communauté urbaine mexicaine? C'est la question à laquelle je me suis attardée ces derniers mois, en analysant le contexte socio-économique de la ville de Querétaro au Mexique. Pour ce faire, j'ai exécuté d'abord une intervention dans une importante coopérative d'épargne et de crédit et je me suis ensuite documentée à travers des entrevues formelles et informelles, des observations, des conférences diverses et la littérature locale et internationale. Après avoir présenté, dans le premier chapitre, le contexte socio-politico-économique du Mexique et en particulier celui de la municipalité de Querétaro, je décris, au chapitre 2, les différents problèmes que vivent au quotidien les citadins. Le chapitre 3 est consacré à l'environnement et aux ressources qu'offrent les coopératives mexicaines d'épargne et de crédit: leur importance, les principes, la législation, les forces et les faiblesses, les menaces et les opportunités, etc. Le chapitre suivant définit le développement local en zone urbaine, ses principes, le processus qui l'accompagne, les acteurs impliqués et la finalité. Enfin le chapitre 5 nous amène au coeur même de la réflexion, c'est-à-dire évaluer si la coopérative d'épargne et de crédit possède le potentiel nécessaire pour être un acteur important de développement local en zones urbaines mexicaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment expliquer que les coopératives et le développement régional soient si naturellement associés comme les éléments d'une même stratégie de développement? Idéologie, réflexe naturel, artifice du discours? Bien malin qui peut répondre de manière catégorique. Certes, il s'en trouve encore quelques-uns pour soutenir que les régions constituent, grâce à leur tissu social homogène, un terreau propice à l'émergence des coopératives. Mais l'explication la plus répandue insiste plutôt sur la capacité qu'auraient les coopératives de répondre directement et efficacement aux besoins de la communauté et de devenir, par effet d'entraînement, des forces économiques toutes désignées pour le développement par la base de la communauté, et progressivement, des régions. Malheureusement, force est de constater que cette supposée affinité entre les coopératives et le développement régional n'a pas su garantir à elle seule l'essor d'une dynamique de développement des régions par les coopératives. De fait, la répartition des coopératives sur l'ensemble du territoire des régions du Québec n'a pas empêché l’émergence des problèmes de développement que connaissent plusieurs régions périphériques. L'objectif de cet essai consiste à cerner l'état de l'analyse et du discours sur les coopératives et le développement régional. Notre réflexion est le résultat d'une recherche bibliographique exhaustive sur ce sujet et de quatre entrevues semi-directives conduites auprès de hauts fonctionnaires de la Direction des coopératives du ministère de l'Industrie, du Commerce et de la Technologie (MICT), au mois de mai 1990. Dans un premier temps, nous ferons un rappel historique des principaux courants théoriques qui ont guidé l'évolution du concept de développement régional. Dans un deuxième temps, à l'aide des éléments dégagés dans notre premier chapitre, nous tenterons de cerner l'état de l'analyse sur le rôle des coopératives dans le développement des régions. Puis enfin, dans notre dernier chapitre, nous analyserons la philosophie d'intervention de l'État concernant le rôle des coopératives en région. Pourquoi l'État? Parce que l'État, via ses dirigeants politiques et son appareil public, a fortement contribué à l'évolution de l'analyse et du discours à ce sujet. Les praticiens sont absents de cette démarche. Pourquoi? Mener l'enquête-terrain qu'aurait nécessitée l'analyse de la conception que les coopérateurs nourrissent à l'égard de leur rôle dans les régions aurait dépassé de loin l'objectif et les conditions de travail requis par cet essai. De plus, notre objectif de recherche s'en tient uniquement au rôle attribué aux coopératives en région par les chercheurs et les dirigeants politiques, et non pas à leur rôle effectif dans ces régions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, nous connaissons une recrudescence du nombre d'entreprises d'économie sociale qui touchent différents secteurs mais surtout ceux délaissés par l'entreprise marchande jugés non solvables. Le développement de cette nouvelle économie sociale, issue d'une part de divers mouvements sociaux qui revendiquent leur part dans la répartition de la richesse et d'autre part par la crise de l'emploi qui ne finit plus de faire des laissés pour compte, ne se fait pas sans heurts et non plus sans soulever un certain nombre de questionnements par rapport au modèle traditionnel de développement. Ces questionnements toucheront essentiellement la place que l'on veut donner aux acteurs qui colorent le développement d'une société dans un souci d'une plus large démocratie: voulons-nous une société inclusive de tous les acteurs qui la forme ou allons-nous continuer à faire perdurer le modèle de développement favorisant l'exclusion et la marginalisation des membres qui ne font pas partie de l'économie marchande? Si chacun a un rôle à jouer dans la redéfinition des rapports d'échanges entre tous les acteurs, nous conviendrons que l'État, par son rôle de redistribution de la richesse et de régulation, doit certainement se positionner quant à la place que chacun devra occuper à l'intérieur de la société. Dans cette perspective, nous nous attarderons sur le rôle de l'État dans la transformation de ces rapports sociaux. Afin de tenter de comprendre cet intérêt que porte l'État pour cette nouvelle économie sociale, nous tracerons dans un premier temps, un historique des mouvements sociaux et économiques à l'origine du développement des entreprises d'économie sociale. Nous distinguerons les deux types d'économie sociale qu'a connu le Québec: l'ancienne et la nouvelle. Par ailleurs, considérant que l'économie sociale n'est pas un modèle de développement (Lévesque, 1999) mais qu'elle s'insère dans les modèles reconnus de développement d'après-guerre (Lévesque et Mendell, 1999) tels qu'on les connaît: le modèle social-démocrate traditionnel, le modèle néo-libéral, le modèle de la démocratie économique et sociale, nous verrons lequel de ces modèles s'inscrit le mieux dans une perspective d'inclusion de tous les acteurs de la société, y compris ceux et celles qui ne font pas partie de l'économie marchande. Par ailleurs, nous verrons, par quelques exemples que, par le passé, ce soutien intéressé de l'État s'est soldé par une récupération de ces initiatives de la société civile pour les institutionnaliser à bon compte. Selon que l'on considère qu'il y a eu plus d'avantages que d'inconvénients à cette institutionnalisation, nous verrons s'il y a lieu de se réjouir de la recrudescence de cette économie sociale ou, au contraire, se méfier de cette bienveillance de l'État à l'égard de cette nouvelle économie sociale. Enfin, nous verrons que des conditions favorables à l'émergence de projets d'économie sont essentielles dans la reconnaissance de l'État. On parle ici d'un apport technique et financier pour soutenir la réalisation d'entreprises d'économie sociale, mais également, à une plus grande échelle, un refaçonnement des politiques qui visent un travail de recomposition du tissu social grandement touché dans la foulée des récentes réformes sociales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques observés depuis les dernières années semblent avoir un impact sur la distribution et l’abondance des espèces dans plusieurs régions du monde. Cette évolution du climat peut représenter un risque pour la survie de certaines espèces car elle peut impliquer leur migration vers une niche écologique leur étant plus favorable. Ce déplacement est possible si l’espèce possède une forte capacité de dispersion et si le territoire sur lequel elle se déplace n’est pas fragmenté. La modélisation de la distribution d’espèces et de niches écologiques, prenant en compte l’évolution des variables environnementales, permet de connaître la distribution potentielle des espèces à la période actuelle et à des périodes futures selon différents scénarios. Au Québec, ces modélisations de distributions de niches écologiques potentielles constituent une source d’information très utile pour les gestionnaires du territoire, en particulier des aires protégées. Ces données permettent notamment d’anticiper la migration des espèces, influencée par les changements climatiques, afin d’identifier les défis de conservation à venir et de poser une réflexion sur le rôle des aires protégées dans ce contexte. L’objectif général de cet essai vise à étudier la migration potentielle des niches écologiques liée aux changements climatiques sur le territoire des parcs nationaux de Frontenac, du Mont-Mégantic et de leur périphérie. Les changements de répartition et de richesse spécifique de plus de 600 niches écologiques dans ce secteur ont été étudiés ainsi que leur implication en lien avec la fragmentation du territoire. Deux échelles de travail (locale et régionale) ont été considérées et des indices spatiaux de changement de répartition et de diversité des niches écologiques ont été calculés pour ces deux échelles de travail, selon deux modes de dispersion (absence de dispersion et dispersion illimitée) et deux horizons futurs (2050 et 2080). Ces indices ont révélé majoritairement une augmentation des niches écologiques apparaissant sur le territoire et une hausse de la diversité de niches écologiques sur l’ensemble du territoire en cas de dispersion illimitée, phénomène accentué à l’horizon 2080. Par contre, en cas d’absence de dispersion, une disparition importante de niches écologiques ainsi qu’une perte de diversité sont à anticiper sur le territoire, phénomène également accentué à l’horizon 2080. L’étude de la fragmentation révèle un territoire relativement fragmenté par les routes, mais présentant majoritairement une faible résistance au déplacement des espèces, malgré la présence de quelques pôles urbains de moyenne importance. Cette étude se base sur des résultats de modélisation de niches écologiques déjà effectués pour l’ensemble du Québec et pourrait ainsi être appliquée à d’autres territoires. Les résultats montrent d’importants changements à venir et les gestionnaires et scientifiques travaillant sur ce territoire pourront utiliser les résultats obtenus pour réfléchir à la mise en place de mesures adaptées aux déplacements potentiels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour modéliser un vecteur aléatoire en présence d'une co-variable, on peut d'abord faire appel à la fonction de répartition conditionnelle. En effet, cette dernière contient toute l'information ayant trait au comportement du vecteur étant donné une valeur prise par la co-variable. Il peut aussi être commode de séparer l'étude du comportement conjoint du vecteur de celle du comportement individuel de chacune de ses composantes. Pour ce faire, on utilise la copule conditionnelle, qui caractérise complètement la dépendance conditionnelle régissant les différentes associations entre les variables. Dans chacun des cas, la mise en oeuvre d'une stratégie d'estimation et d'inférence s'avère une étape essentielle à leur utilisant en pratique. Lorsqu'aucune information n'est disponible a priori quant à un choix éventuel de modèle, il devient pertinent d'opter pour des méthodes non-paramétriques. Le premier article de cette thèse, co-écrit par Jean-François Quessy et moi-même, propose une façon de ré-échantillonner des estimateurs non-paramétriques pour des distributions conditionnelles. Cet article a été publié dans la revue Statistics and Computing. En autres choses, nous y montrons comment obtenir des intervalles de confiance pour des statistiques s'écrivant en terme de la fonction de répartition conditionnelle. Le second article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, s'affaire à étudier deux estimateurs non-paramétriques de la copule conditionnelles, proposés par Gijbels et coll. en présence de données sérielles. Cet article a été soumis dans la revue Statistics and Probability Letters. Nous identifions la distribution asymptotique de chacun de ces estimateurs pour des données mélangeantes. Le troisième article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, propose une nouvelle façon d'étudier les relations de causalité entre deux séries chronologiques. Cet article a été soumis dans la revue Electronic Journal of Statistics. Dans cet article, nous utilisons la copule conditionnelle pour caractériser une version locale de la causalité au sens de Granger. Puis, nous proposons des mesures de causalité basées sur la copule conditionnelle. Le quatrième article de cette thèse, co-écrit par Taoufik Bouezmarni, Anouar El Ghouch et moi-même, propose une méthode qui permette d'estimer adéquatement la copule conditionnelle en présence de données incomplètes. Cet article a été soumis dans la revue Scandinavian Journal of Statistics. Les propriétés asymptotiques de l'estimateur proposé y sont aussi étudiées. Finalement, la dernière partie de cette thèse contient un travail inédit, qui porte sur la mise en oeuvre de tests statistiques permettant de déterminer si deux copules conditionnelles sont concordantes. En plus d'y présenter des résultats originaux, cette étude illustre l'utilité des techniques de ré-échantillonnage développées dans notre premier article.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire de maîtrise, nous utilisons les microdonnées de l’Enquête sur les dépenses des ménages de Statistique Canada en 2009 pour tester la validité empirique du modèle unitaire de dépense des ménages. En s’inspirant de l’étude conduite par Phipps et Burton en 1998, nous tentons une actualisation de leurs résultats ainsi qu’une analyse de l’évolution du comportement des ménages canadiens entre 1992 et 2009. La nouveauté présentée dans ce mémoire de maîtrise tient justement dans ces résultats. Dans la majorité des catégories de dépenses, nous ne rejetons plus le modèle unitaire et nous en mesurons les implications. Entre ces deux études, les différences entre l’homme et la femme dans les couples canadiens se sont atténuées, ils ont de plus en plus les mêmes préférences en terme de consommation. Enfin, nous poursuivons en apportant un test du modèle coopératif développé par Browning, Bourguignon, Chiappori et Lechene (1994) sur la demande en biens exclusifs. Nous en déduisons un aperçu de la répartition du pouvoir de dépense au sein des ménages canadiens.