998 resultados para Main dominante et non-dominante
Resumo:
Introduction: Online databases can support the implementation of evidence-based practice by providing easy access to research. OTseeker (www.otseeker.com), an electronic evidence database, was introduced in 2003 to assist occupational therapists to locate and interpret research. Objectives: This study explored Australian occupational therapists' use and perceptions of OTseeker and its impact on their knowledge and practice. Methods: A postal survey questionnaire was distributed to two samples: (i) a proportionate random sample of 400 occupational therapists from all states and territories of Australia, and (ii) a random sample of occupational therapists working in 95 facilities in two Australian states (Queensland and New South Wales). Results: The questionnaire was completed by 213 participants. While most participants (85.9%) had heard of OTseeker, only 103 (56.6%) had accessed it, with lack of time being the main reason for non-use. Of the 103 participants who had accessed OTseeker, 68.9% had done so infrequently, 63.1% agreed that it had increased their knowledge and 13.6% had changed their practice after accessing information on OTseeker. Conclusion: Despite OTseeker being developed to provide occupational therapists with easy access to research, lack of time was the main reason why over half of the participants in this study had not accessed it. This exploratory research suggests, however, that there is potential for the database to influence occupational therapists' knowledge and practice about treatment efficacy through access to the research literature.
Resumo:
This paper aims to broaden the present CSR literature by extending its focus to the absence of CSR within a developing country, an area which, to date, is relatively under researched in comparison to the more widely studied presence of CSR within developed Western countries. In particular this paper concentrates upon the lack of disclosure on three particular eco-justice issues: child labour, equal opportunities and poverty alleviation. We critically examine why this is the case and thereby illuminate underlying motives behind corporate unwillingness to address these issues. For this purpose, 23 semi-structured interviews were undertaken with senior corporate managers in Bangladesh. The findings suggest that the main reasons for non-disclosure include lack of legal requirements, lack of knowledge/awareness, poor performance and fear of bad publicity. Given these findings the paper raises some serious concerns as to why corporations would ever be expected to voluntarily report on eco-justice issues where performance is poor and negative publicity would be generated. These significant issues require careful consideration by policy makers at the national, regional and international levels.
Resumo:
This paper aims to broaden the present corporate social responsibility (CSR) reporting literature by extending its focus to the absence of CSR reporting within a developing country, an area which, to date, is relatively under researched in comparison to the more widely studied presence of CSR reporting within developed Western countries. In particular this paper concentrates upon the lack of disclosure on three particular eco-justice issues: child labour, equal opportunities and poverty alleviation. We examine why this is the case and thereby illuminate underlying motives behind corporate unwillingness to address these issues. For this purpose, 23 semi-structured interviews were undertaken with senior corporate managers in Bangladesh. The findings suggest that the main reasons for non-disclosure include lack of resources, the profit imperative, lack of legal requirements, lack of knowledge/awareness, poor performance and the fear of bad publicity. Given these findings the paper raises some serious concerns as to why corporations would ever be expected to voluntarily report on eco-justice issues where performance is poor and negative publicity would be generated and profit impaired. Further research is still required to uncover current injustices and to imagine what changes can be made.
Resumo:
This paper aims to broaden the present CSR literature by examining the absence of CSR within the context of a developing country. This is an area which to date is relatively under researched in comparison to the more widely studied presence of CSR within developed Western countries. For this purpose, 23 semi-structured interviews were undertaken with senior corporate managers in Bangladesh. The findings suggest that the main reasons for non-disclosure include lack of legal requirements and lack of knowledge/awareness. The other reasons mentioned are lack of resources, poor performance and fear of bad publicity and inherent dangers in additional disclosures. The paper has raised some serious public policy concerns by exploring the underlying motives for absence of CSR in general and some eco-justice issues in particular (e.g. child labour, equal opportunities and poverty alleviation). These significant issues require careful consideration by the policy makers at the national, regional and international levels.
Resumo:
2000 Mathematics Subject Classification: 60J80, 62M05
Resumo:
Contexte La connectomique, ou la cartographie des connexions neuronales, est un champ de recherche des neurosciences évoluant rapidement, promettant des avancées majeures en ce qui concerne la compréhension du fonctionnement cérébral. La formation de circuits neuronaux en réponse à des stimuli environnementaux est une propriété émergente du cerveau. Cependant, la connaissance que nous avons de la nature précise de ces réseaux est encore limitée. Au niveau du cortex visuel, qui est l’aire cérébrale la plus étudiée, la manière dont les informations se transmettent de neurone en neurone est une question qui reste encore inexplorée. Cela nous invite à étudier l’émergence des microcircuits en réponse aux stimuli visuels. Autrement dit, comment l’interaction entre un stimulus et une assemblée cellulaire est-elle mise en place et modulée? Méthodes En réponse à la présentation de grilles sinusoïdales en mouvement, des ensembles neuronaux ont été enregistrés dans la couche II/III (aire 17) du cortex visuel primaire de chats anesthésiés, à l’aide de multi-électrodes en tungstène. Des corrélations croisées ont été effectuées entre l’activité de chacun des neurones enregistrés simultanément pour mettre en évidence les liens fonctionnels de quasi-synchronie (fenêtre de ± 5 ms sur les corrélogrammes croisés corrigés). Ces liens fonctionnels dévoilés indiquent des connexions synaptiques putatives entre les neurones. Par la suite, les histogrammes peri-stimulus (PSTH) des neurones ont été comparés afin de mettre en évidence la collaboration synergique temporelle dans les réseaux fonctionnels révélés. Enfin, des spectrogrammes dépendants du taux de décharges entre neurones ou stimulus-dépendants ont été calculés pour observer les oscillations gamma dans les microcircuits émergents. Un indice de corrélation (Rsc) a également été calculé pour les neurones connectés et non connectés. Résultats Les neurones liés fonctionnellement ont une activité accrue durant une période de 50 ms contrairement aux neurones fonctionnellement non connectés. Cela suggère que les connexions entre neurones mènent à une synergie de leur inter-excitabilité. En outre, l’analyse du spectrogramme dépendant du taux de décharge entre neurones révèle que les neurones connectés ont une plus forte activité gamma que les neurones non connectés durant une fenêtre d’opportunité de 50ms. L’activité gamma de basse-fréquence (20-40 Hz) a été associée aux neurones à décharge régulière (RS) et l’activité de haute fréquence (60-80 Hz) aux neurones à décharge rapide (FS). Aussi, les neurones fonctionnellement connectés ont systématiquement un Rsc plus élevé que les neurones non connectés. Finalement, l’analyse des corrélogrammes croisés révèle que dans une assemblée neuronale, le réseau fonctionnel change selon l’orientation de la grille. Nous démontrons ainsi que l’intensité des relations fonctionnelles dépend de l’orientation de la grille sinusoïdale. Cette relation nous a amené à proposer l’hypothèse suivante : outre la sélectivité des neurones aux caractères spécifiques du stimulus, il y a aussi une sélectivité du connectome. En bref, les réseaux fonctionnels «signature » sont activés dans une assemblée qui est strictement associée à l’orientation présentée et plus généralement aux propriétés des stimuli. Conclusion Cette étude souligne le fait que l’assemblée cellulaire, plutôt que le neurone, est l'unité fonctionnelle fondamentale du cerveau. Cela dilue l'importance du travail isolé de chaque neurone, c’est à dire le paradigme classique du taux de décharge qui a été traditionnellement utilisé pour étudier l'encodage des stimuli. Cette étude contribue aussi à faire avancer le débat sur les oscillations gamma, en ce qu'elles surviennent systématiquement entre neurones connectés dans les assemblées, en conséquence d’un ajout de cohérence. Bien que la taille des assemblées enregistrées soit relativement faible, cette étude suggère néanmoins une intrigante spécificité fonctionnelle entre neurones interagissant dans une assemblée en réponse à une stimulation visuelle. Cette étude peut être considérée comme une prémisse à la modélisation informatique à grande échelle de connectomes fonctionnels.
Resumo:
Bioenergy is now accepted as having the potential to provide the major part of the projected renewable energy provisions of the future as biofuels in the form of gas, liquid or solid fuels or electricity and heat. There are three main routes to providing these biofuels — thermal conversion, biological conversion and physical conversion — all of which employ a range of chemical reactor configurations and process designs. This paper focuses on fast pyrolysis from which the liquid, often referred to as bio-oil, can be used on-site or stored or transported to centralised and/or remote user facilities for utilisation for example as a fuel, or further processing to biofuels and/or chemicals. This offers the potential for system optimisation, much greater economies of scale and exploitation of the concepts of biorefineries. The technology of fast pyrolysis is described, particularly the reactors that have been developed to provide the necessary conditions to optimise performance. The primary liquid product is characterised, as well as the secondary products of electricity and/or heat, liquid fuels and a considerable number of chemicals. The main technical and non-technical barriers to the market deployment of the various technologies are identified and briefly discussed.
Resumo:
Cette thèse a comme objectif de démontrer combien Alaric et ses Goths étaient Romains dans pratiquement toutes les catégories connues sur leur compte. Pour ce faire, l’auteur a puisé dans les sciences sociales et a emprunté le champ conceptuel de l’éminent sociologue Pierre Bourdieu. À l’aide du concept d’habitus, entre autres choses, l’auteur a tenté de faire valoir à quel point les actions d’Alaric s’apparentaient à celles des généraux romains de son époque. Naturellement, il a fallu étaler le raisonnement au long de plusieurs chapitres et sur de nombreux niveaux. C’est-à-dire qu’il a fallu d’abord définir les concepts populaires en ce moment pour « faire » l’histoire des barbares durant l’Antiquité tardive. Pensons ici à des termes tels que l’ethnicité et l’ethnogenèse. L’auteur s’est distancé de ces concepts qu’il croyait mal adaptés à la réalité des Goths et d’Alaric. C’est qu’il fallait comprendre ces hommes dans une structure romaine, au lieu de leur octroyer une histoire et des traditions barbares. Il a ensuite fallu montrer que la thèse explorait des avenues restées peu empruntées jusqu’à aujourd’hui. Il a été question de remonter jusqu’à Gibbon pour ensuite promouvoir le fait que quelques érudits avaient autrefois effleuré la question d’Alaric comme étant un homme beaucoup moins barbare que ce que la tradition véhiculait à son sujet, tel que Fustel de Coulanges, Amédée Thierry ou encore Marcel Brion. Il s’agissait donc de valider l’angle de recherche en prenant appui d’abord sur ces anciens luminaires de la discipline. Vint ensuite l’apport majeur de cette thèse, c’est-à-dire essentiellement les sections B, C et D. La section B a analysé la logistique durant la carrière d’Alaric. Cette section a permis avant tout de démontrer clairement qu’on n’a pas affaire à une troupe de brigands révoltés; le voyage de 401-402 en Italie prouve à lui seul ce fait. L’analyse approfondie de l’itinéraire d’Alaric durant ses nombreux voyages a démontré que cette armée n’aurait pas pu effectuer tous ces déplacements sans l’appui de la cour orientale. En l’occurrence, Alaric et son armée étaient véritablement des soldats romains à ce moment précis, et non pas simplement les fédérés barbares de la tradition. La section C s’est concentrée sur les Goths d’Alaric, où on peut trouver deux chapitres qui analysent deux sujets distincts : origine/migration et comparaison. C’est dans cette section que l’auteur tente de valider l’hypothèse que les Goths d’Alaric n’étaient pas vraiment Goths, d’abord, et qu’ils étaient plutôt Romains, ensuite. Le chapitre sur la migration n’a comme but que de faire tomber les nombreuses présomptions sur la tradition gothe que des érudits comme Wolfram et Heather s’efforcent de défendre encore aujourd’hui. L’auteur argumente pour voir les Goths d’Alaric comme un groupe formé à partir d’éléments romains; qu’ils eurent été d’une origine barbare quelconque dans les faits n’a aucun impact sur le résultat final : ces hommes avaient vécu dans l’Empire durant toute leur vie (Alaric inclus) et leurs habitus ne pouvaient pas être autre chose que romain. Le dernier chapitre de la section C a aussi démontré que le groupe d’Alaric était d’abord profondément différent des Goths de 376-382, puis d’autres groupes que l’on dit barbares au tournant du 5e siècle, comme l’étaient les Vandales et les Alamans par exemple. Ensemble, ces trois chapitres couvrent la totalité de ce que l’on connait du groupe d’Alaric et en offre une nouvelle interprétation à la lumière des dernières tendances sociologiques. La section D analyse quant à elle en profondeur Alaric et sa place dans l’Empire romain. L’auteur a avant tout lancé l’idée, en s’appuyant sur les sources, qu’Alaric n’était pas un Goth ni un roi. Il a ensuite analysé le rôle d’Alaric dans la structure du pouvoir de l’Empire et en est venu à la conclusion qu’il était l’un des plus importants personnages de l’Empire d’Orient entre 397 et 408, tout en étant soumis irrémédiablement à cette structure. Sa carrière militaire était des plus normale et s’inscrivait dans l’habitus militaire romain de l’époque. Il a d’ailleurs montré que, par ses actions, Alaric était tout aussi Romain qu’un Stilicon. À dire le vrai, mis à part Claudien, rien ne pourrait nous indiquer qu’Alaric était un barbare et qu’il essayait d’anéantir l’Empire. La mauvaise image d’Alaric n’est en effet redevable qu’à Claudien : aucun auteur contemporain n’en a dressé un portrait aussi sombre. En découle que les auteurs subséquents qui firent d’Alaric le roi des Goths et le ravageur de la Grèce avaient sans doute été fortement influencés eux aussi par les textes de Claudien.
Resumo:
Contexte La connectomique, ou la cartographie des connexions neuronales, est un champ de recherche des neurosciences évoluant rapidement, promettant des avancées majeures en ce qui concerne la compréhension du fonctionnement cérébral. La formation de circuits neuronaux en réponse à des stimuli environnementaux est une propriété émergente du cerveau. Cependant, la connaissance que nous avons de la nature précise de ces réseaux est encore limitée. Au niveau du cortex visuel, qui est l’aire cérébrale la plus étudiée, la manière dont les informations se transmettent de neurone en neurone est une question qui reste encore inexplorée. Cela nous invite à étudier l’émergence des microcircuits en réponse aux stimuli visuels. Autrement dit, comment l’interaction entre un stimulus et une assemblée cellulaire est-elle mise en place et modulée? Méthodes En réponse à la présentation de grilles sinusoïdales en mouvement, des ensembles neuronaux ont été enregistrés dans la couche II/III (aire 17) du cortex visuel primaire de chats anesthésiés, à l’aide de multi-électrodes en tungstène. Des corrélations croisées ont été effectuées entre l’activité de chacun des neurones enregistrés simultanément pour mettre en évidence les liens fonctionnels de quasi-synchronie (fenêtre de ± 5 ms sur les corrélogrammes croisés corrigés). Ces liens fonctionnels dévoilés indiquent des connexions synaptiques putatives entre les neurones. Par la suite, les histogrammes peri-stimulus (PSTH) des neurones ont été comparés afin de mettre en évidence la collaboration synergique temporelle dans les réseaux fonctionnels révélés. Enfin, des spectrogrammes dépendants du taux de décharges entre neurones ou stimulus-dépendants ont été calculés pour observer les oscillations gamma dans les microcircuits émergents. Un indice de corrélation (Rsc) a également été calculé pour les neurones connectés et non connectés. Résultats Les neurones liés fonctionnellement ont une activité accrue durant une période de 50 ms contrairement aux neurones fonctionnellement non connectés. Cela suggère que les connexions entre neurones mènent à une synergie de leur inter-excitabilité. En outre, l’analyse du spectrogramme dépendant du taux de décharge entre neurones révèle que les neurones connectés ont une plus forte activité gamma que les neurones non connectés durant une fenêtre d’opportunité de 50ms. L’activité gamma de basse-fréquence (20-40 Hz) a été associée aux neurones à décharge régulière (RS) et l’activité de haute fréquence (60-80 Hz) aux neurones à décharge rapide (FS). Aussi, les neurones fonctionnellement connectés ont systématiquement un Rsc plus élevé que les neurones non connectés. Finalement, l’analyse des corrélogrammes croisés révèle que dans une assemblée neuronale, le réseau fonctionnel change selon l’orientation de la grille. Nous démontrons ainsi que l’intensité des relations fonctionnelles dépend de l’orientation de la grille sinusoïdale. Cette relation nous a amené à proposer l’hypothèse suivante : outre la sélectivité des neurones aux caractères spécifiques du stimulus, il y a aussi une sélectivité du connectome. En bref, les réseaux fonctionnels «signature » sont activés dans une assemblée qui est strictement associée à l’orientation présentée et plus généralement aux propriétés des stimuli. Conclusion Cette étude souligne le fait que l’assemblée cellulaire, plutôt que le neurone, est l'unité fonctionnelle fondamentale du cerveau. Cela dilue l'importance du travail isolé de chaque neurone, c’est à dire le paradigme classique du taux de décharge qui a été traditionnellement utilisé pour étudier l'encodage des stimuli. Cette étude contribue aussi à faire avancer le débat sur les oscillations gamma, en ce qu'elles surviennent systématiquement entre neurones connectés dans les assemblées, en conséquence d’un ajout de cohérence. Bien que la taille des assemblées enregistrées soit relativement faible, cette étude suggère néanmoins une intrigante spécificité fonctionnelle entre neurones interagissant dans une assemblée en réponse à une stimulation visuelle. Cette étude peut être considérée comme une prémisse à la modélisation informatique à grande échelle de connectomes fonctionnels.
Resumo:
The Russell Cycle is one of the classical examples of climate influence on biological oceanography, represented as shifts in the marine plankton over several decades with warm and cool conditions. While the time-series data associated with the phenomenon indicate cyclical patterns, the question remains whether or not the Russell Cycle should be considered a “true cycle”. Zooplankton time-series data from 1924 to 2011 from the western English Channel were analysed with principal component (PC), correlation and spectral analyses to determine the dominant trends, and cyclic frequencies of the Russell Cycle indicators in relation to long-term hydroclimatic indices. PC1 accounted for 37.4% of the variability in the zooplankton data with the main contributions from non-clupeid fish larvae, southwestern zooplankton, and overall zooplankton biovolume. For PC2 (14.6% of data variance), the dominant groups were northern fish larvae, non-sardine eggs, and southern fish larvae. Sardine eggs were the major contributors to PC3 (representing 12.1% of data variance). No significant correlations were observed between the above three components and climate indices: Atlantic Multidecadal Oscillation, North Atlantic Oscillation, and local seawater temperature. Significant 44- and 29-year frequencies were observed for PC3, but the physical mechanisms driving the cycles are unclear. Harmonic analysis did not reveal any significant frequencies in the physical variables or in PCs 1 and 2. To a large extent, this is due to the dominant cycles in all datasets generally being long term (>50 years or so) and not readily resolved in the examined time frame of 88 years, hence restricting the ability to draw firm conclusions on the multidecadal relationship between zooplankton community dynamics in the western English Channel and environmental indices. Thus, the zooplankton time-series often associated and represented as the Russell Cycle cannot be concluded as being truly cyclical.
Resumo:
The Russell Cycle is one of the classical examples of climate influence on biological oceanography, represented as shifts in the marine plankton over several decades with warm and cool conditions. While the time-series data associated with the phenomenon indicate cyclical patterns, the question remains whether or not the Russell Cycle should be considered a “true cycle”. Zooplankton time-series data from 1924 to 2011 from the western English Channel were analysed with principal component (PC), correlation and spectral analyses to determine the dominant trends, and cyclic frequencies of the Russell Cycle indicators in relation to long-term hydroclimatic indices. PC1 accounted for 37.4% of the variability in the zooplankton data with the main contributions from non-clupeid fish larvae, southwestern zooplankton, and overall zooplankton biovolume. For PC2 (14.6% of data variance), the dominant groups were northern fish larvae, non-sardine eggs, and southern fish larvae. Sardine eggs were the major contributors to PC3 (representing 12.1% of data variance). No significant correlations were observed between the above three components and climate indices: Atlantic Multidecadal Oscillation, North Atlantic Oscillation, and local seawater temperature. Significant 44- and 29-year frequencies were observed for PC3, but the physical mechanisms driving the cycles are unclear. Harmonic analysis did not reveal any significant frequencies in the physical variables or in PCs 1 and 2. To a large extent, this is due to the dominant cycles in all datasets generally being long term (>50 years or so) and not readily resolved in the examined time frame of 88 years, hence restricting the ability to draw firm conclusions on the multidecadal relationship between zooplankton community dynamics in the western English Channel and environmental indices. Thus, the zooplankton time-series often associated and represented as the Russell Cycle cannot be concluded as being truly cyclical.
Resumo:
La notion de chez-soi est porteuse d’un imaginaire foisonnant et génère un grand intérêt dans notre culture et société. Bien qu’elle soit une considération importante pour la plupart d’entre nous, l’architecte occupe une position privilégiée qui lui permette d’agir sur le chez-soi de manière significative et tangible. La présente recherche explore le concept du chez-soi tel qu’étudié par les architectes et non-architectes de manière à comprendre son impact sur la création du lieu et sur la construction des environnements domestiques en Amérique du nord. Un regard porté sur les connotations entre espace et lieu, à travers la temporalité, les comportements et les perspectives sociales, supporte l’épistémologie du chez-soi comme un élément important des théories et pratiques de design contemporain. Le démantèlement hypothétique d’un espace en ses composantes suppose que les dispositifs architecturaux peuvent être modelés de manière à ce qu’ils opèrent un transfert depuis la maison, en tant qu’élément physique, vers le domaine psychologique du chez-soi. Afin d’élargir la maniabilité des éléments constitutifs du bâtiment et de son environnement, six thèmes sont appliqués à trois champs de données. Les six thèmes, qui incluent l’entre-deux, la limite, la voie, le nœud, le détail et la représentation, illustrent des moments architecturaux déterminants, potentiellement présents à l’intérieur et à l’extérieur du projet domestique et qui transforment les comportements physiques et psychiques. Depuis la pratique normalisée du logement social et abordable au Canada, une analyse de photographies de maisons abordables existantes, du discours critique sur cette typologie et de projets de recherche-création conduits par des étudiants en architecture, révèle le caractère opérationnel de la notion de chez-soi et consolide les valeurs de communauté et de frontière. L’objectif premier de la recherche est d’avancer la production de connaissances en architecture par l’exploration de la notion de chezsoi dans l’enseignement, la recherche et le design. L’approche fonctionnaliste vis-à-vis le < penser > en design, place l’usager au centre de l’environnement domestique, soutient la proposition que le chezsoi donne sens et utilité au logement, et renforce la responsabilité éthique de l’architecte à faire de cette notion une partie intégrante de la réalité quotidienne.
Resumo:
La maladie du greffon contre l’hôte (GVHD) est la principale cause de mortalité et de morbidité suite aux greffes de cellules souches hématopoïétiques. Plusieurs patients demeurent réfractaires aux traitements actuels ce qui rend nécessaire le développement de nouvelles stratégies afin de combattre cette maladie. Dans l’étude qui suit, nous avons utilisé un nouvel agent thérapeutique, le TH9402, une molécule photosensible et démontré qu’elle permet, lorsqu’exposée à la lumière visible (514 nm), d’éliminer sélectivement les cellules T activées in vivo tout en préservant les cellules T au repos et les cellules T régulatrices (Tregs). Les Tregs ainsi préservés peuvent abroger la réponse alloréactive par la sécrétion d’IL-10 ou par contact cellule-cellule via un mécanisme impliquant le CTLA-4. Nous avons découvert que la signalisation du CTLA-4 était associée à une hausse de la population Treg in vitro. Cette hausse est due à la conversion de cellules T CD4+CD25- en Tregs et non à une prolifération sélective des Tregs. Dans la deuxième partie de cette étude, nous avons démontré que la signalisation de CTLA-4 était associée à une augmentation de l’expression de la protéine Indoleamine 2,3 dioxygenase (IDO). Ces effets nécessitent la déplétion du tryptophane ainsi que de la protéine de phase aigue GCN2. Finalement, nous avons observé que l’infusion de cellules traitées au TH9402 chez des patients souffrant de GVHD chronique est associée à une augmentation de la population Treg chez ces patients sans causer de lymphopénie ni de diminution de la réponse immunitaire dirigée contre les antigènes viraux. Ces résultats suggèrent que le traitement au TH9402 pourrait représenter une approche particulièrement intéressante pour le traitement de la GVHD chronique réfractaire aux traitements actuels. De plus, l’augmentation de l’expression d’IDO pourrait être utilisée comme valeur prédictive de la réponse du patient au traitement. Ceci pourrait permettre d’améliorer la qualité de soins ainsi que de la qualité de vie des patients souffrant de GVHD chronique.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
La tordeuse des bourgeons de l’épinette (Choristoneura fumiferana, TBE) est l’insecte ravageur le plus important de la forêt boréale de l’est de l’Amérique du Nord. Depuis 2006, la région de la Côte-Nord est affectée par une épidémie de TBE et les superficies forestières infestées doublent annuellement. Des images satellitaires Landsat ont été utilisées pour cartographier la sévérité de l’épidémie avec une approche de détection de changements, en utilisant une image pré-épidémie (2004) et une image prise pendant l’épidémie (2013). Des relevés terrains de la défoliation par la TBE ont été utilisés pour développer (R2 = 0,50) une cartographie fiable (R2 de validation = 0,64) et non biaisée de la sévérité des infestations de la TBE sur une échelle continue de sévérité (0-100%) pour la région d’étude. Une analyse des facteurs environnementaux affectant la sévérité des infestations (extraite de la carte de défoliation) a démontré l’importance de la composition forestière en sapin baumier tant à l’échelle locale qu’à l’échelle du paysage. De plus, une analyse de contexte spatial montre que dans les sites peu défoliés (défoliation cumulée < 50%), le meilleur prédicteur est plutôt son abondance à l’échelle du paysage (distance > 500 m). Ces résultats suggèrent une interaction entre les échelles spatiales et temporelles lors des épidémies de TBE.