315 resultados para Ultrapuissance (limite)
Resumo:
L'épaule est souvent affectée par des troubles musculo-squelettiques. Toutefois, leur évaluation est limitée à des mesures qualitatives qui nuisent à la spécificité et justesse du diagnostic. L'analyse de mouvement tridimensionnel pourrait complémenter le traitement conventionnel à l'aide de mesures quantitatives fonctionnelles. L'interaction entre les articulations de l'épaule est estimée par le rythme scapulo-huméral, mais la variabilité prononcée qu'il affiche nuit à son utilisation clinique. Ainsi, l'objectif général de cette thèse était de réduire la variabilité de la mesure du rythme scapulo-huméral. L'effet de la méthode de calcul du rythme scapulo-huméral et des conditions d'exécution du mouvement (rotation axiale du bras, charge, vitesse, activité musculaire) ont été testées. La cinématique des articulations de l'épaule a été calculé par chaîne cinématique et filtre de Kalman étendu sur des sujets sains avec un système optoélectronique. La méthode usuelle de calcul du rythme scapulo-huméral extrait les angles d'élévation gléno-humérale et de rotation latérale scapulo-thoracique. Puisque ces angles ne sont pas co-planaires au thorax, leur somme ne correspond pas à l'angle d'élévation du bras. Une nouvelle approche de contribution articulaire incluant toutes les rotations de chaque articulation est proposée et comparée à la méthode usuelle. La méthode usuelle surestimait systématiquement la contribution gléno-humérale par rapport à la méthode proposée. Ce nouveau calcul du rythme scapulo-huméral permet une évaluation fonctionnelle dynamique de l'épaule et réduit la variabilité inter-sujets. La comparaison d'exercices de réadaptation du supra-épineux contrastant la rotation axiale du bras a été réalisée, ainsi que l'effet d'ajouter une charge externe. L'exercice «full-can» augmentait le rythme scapulo-huméral et la contribution gléno-humérale ce qui concorde avec la fonction du supra-épineux. Au contraire, l'exercice «empty-can» augmentait la contribution scapulo-thoracique ce qui est associé à une compensation pour éviter la contribution gléno-humérale. L'utilisation de charge externe lors de la réadaptation du supra-épineux semble justifiée par un rythme scapulo-huméral similaire et une élévation gléno-humérale supérieure. Le mouvement de l'épaule est souvent mesuré ou évalué en condition statique ou dynamique et passive ou active. Cependant, l'effet de ces conditions sur la coordination articulaire demeure incertain. La comparaison des ces conditions révélait des différences significatives qui montrent l'importance de considérer les conditions de mouvement pour l'acquisition ou la comparaison des données.
Resumo:
Présente depuis le temps des Romains, et bien au-delà des simples «articles de Paris», la contrefaçon s’est introduite dans tous les domaines de fabrication. L’objectif de cette recherche est de déterminer quelles peuvent être les raisons et les motivations qui poussent un groupe d’immigrants à se spécialiser dans la vente de contrefaçon d’objet de luxe. Pour y répondre, nous proposons de suivre deux hypothèses. D'une part, le contexte politicoéconomique international est constitué de telle sorte qu'il favorise un groupe restreint de pays et limite en contrepartie les débouchés à bon nombre de pays en développement. Les pays développés modulent, ou font pression sur les organisations internationales à leur image afin d'en tirer davantage de bénéfices, et souvent au détriment des pays en développement. Et d'autre part, à l'intérieur de ces populations en mouvement, certains individus font le choix (inévitable ou stratégique) de se cantonner dans un commerce de la rue, parfois illégal, comme c'est le cas de la vente d'objet de luxe contrefait. D’un autre côté, l’adhésion d’un individu à un commerce illégal ne peut lui être totalement imposée par des forces extérieures. Ainsi, il est démontré dans ce travail, que la vente de contrefaçon répond aux particularités et aux exigences de certains individus: statut d’immigrants illégaux, peu ou pas d’expérience de travail compatible avec le pays d’accueil, travail sans contraintes d’horaire, travail à l’extérieur et, surtout, favorisant la vie sociale.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Cette étude s’inscrit dans un questionnement entourant les notions d’identité nationale et de construction allégorique. Elle s’inscrit également dans une problématique touchant les questions de la matérialité de la littérature et du cinéma. Dans la première partie de cette recherche, nous allons d’abord définir les notions d’allégorie et d’allégorie nationale. Par la suite, à partir de l’histoire d’Iracema, nous allons questionner deux œuvres qui travaillent la rencontre entre une autochtone et un blanc de manière distincte. La première œuvre est Iracema : lenda do Ceará de José de Alencar, un écrivain connu du XIXe siècle au Brésil. Véritable allégorie nationale de fondation, cette œuvre cherche à unir allégoriquement les différences sociales pour fonder une identité qui serait brésilienne. Le film Iracema : uma transa amazônica reprend cette histoire de construction nationale dans un contexte de dictature et montre ses contradictions et ses limites. En mettant l’accent sur les travailleurs et les marginalisés de l’imaginaire national, le film altère la sensibilité visuelle des spectateurs. Puisque l'oeuvre de Bodansky et Senna se situe à la limite entre le documentaire et la fiction, nous avons posé notre regard sur les résistances qu’offrent des images documentaires à l’interprétation allégorique de la nation.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Dans ce mémoire, nous abordons le problème de l’ensemble dominant connexe de cardinalité minimale. Nous nous penchons, en particulier, sur le développement de méthodes pour sa résolution basées sur la programmation par contraintes et la programmation en nombres entiers. Nous présentons, en l’occurrence, une heuristique et quelques méthodes exactes pouvant être utilisées comme heuristiques si on limite leur temps d’exécution. Nous décrivons notamment un algorithme basé sur l’approche de décomposition de Benders, un autre combinant cette dernière avec une stratégie d’investigation itérative, une variante de celle-ci utilisant la programmation par contraintes, et enfin une méthode utilisant uniquement la programmation par contraintes. Des résultats expérimentaux montrent que ces méthodes sont efficaces puisqu’elles améliorent les méthodes connues dans la littérature. En particulier, la méthode de décomposition de Benders avec une stratégie d’investigation itérative fournit les résultats les plus performants.
Resumo:
Avec la mise en place de la nouvelle limite maximale de 400 000 cellules somatiques par millilitres de lait (c/mL) au réservoir, le mois d’août 2012 a marqué une étape importante en termes de qualité du lait pour les producteurs de bovins laitiers du Canada. L’objectif de cette étude consistait en l’établissement d’un modèle de prédiction de la violation de cette limite au réservoir à l’aide des données individuelles et mensuelles de comptages en cellules somatiques (CCS) obtenues au contrôle laitier des mois précédents. Une banque de donnée DSA comprenant 924 troupeaux de laitiers québécois, en 2008, a été utilisée pour construire un modèle de régression logistique, adapté pour les mesures répétées, de la probabilité d’excéder 400 000 c/mL au réservoir. Le modèle final comprend 6 variables : le pointage linéaire moyen au test précédent, la proportion de CCS > 500 000 c/mL au test précédent, la production annuelle moyenne de lait par vache par jour, le nombre de jours en lait moyen (JEL) au test précédent ainsi que les proportions de vaches saines et de vaches infectées de manière chronique au test précédant. Le modèle montre une excellente discrimination entre les troupeaux qui excèdent ou n’excèdent pas la limite lors d’un test et pourrait être aisément utilisé comme outil supplémentaire de gestion de la santé mammaire à la ferme.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
L’adhésion au traitement réfère à la mesure selon laquelle un patient respecte la posologie et la fréquence des prises médicamenteuses telles que prescrites par le médecin pour la durée recommandée. En dépit de nombreux traitements efficaces, la problématique de la non-adhésion demeure omniprésente en médecine, notamment dans les populations psychiatriques. Les patients aux prises avec un trouble de l’humeur ou un TDAH peuvent présenter des déficits cognitifs. Un projet de recherche mené auprès de 52 patients est présenté. Les résultats montrent une association entre les difficultés cognitives telles que perçues par les patients et l’adhésion. Des sous-domaines cognitifs comme la capacité d’inhibition, la flexibilité, la mémoire de travail, la planification et l’organisation de même que la capacité d’initier une action sont particulièrement impliqués. La capacité d’initier une tâche est corrélée avec l’adhésion et tend à la prédire. L’utilisation en clinique de méthodes d’évaluation simples et rapides de la cognition et de l’adhésion permettrait d’identifier ces difficultés. Des interventions visant à améliorer l’adhésion pourraient ainsi être offertes de façon plus ciblée. L’adaptation des interventions au profil de chaque individu est une avenue à explorer davantage pour tenter d’améliorer l’efficacité limitée de celles-ci jusqu’à maintenant.
Resumo:
Thèse présentée en cotutelle en vue de l’obtention des grades de Philosophiae Doctor (Ph.D.) en Sciences des Religions de l’Université de Montréal et de Docteur en Sociologie de l’École Pratique des Hautes Études Paris-Sorbonne
Resumo:
La mémoire à court terme visuelle (MCTv) est un système qui permet le maintien temporaire de l’information visuelle en mémoire. La capacité en mémoire à court terme se définit par le nombre d’items qu’un individu peut maintenir en mémoire sur une courte période de temps et est limitée à environ quatre items. Il a été démontré que la capacité en MCTv et les habiletés mathématiques sont étroitement liées. La MCTv est utile dans beaucoup de composantes liées aux mathématiques, comme la résolution de problèmes, la visualisation mentale et l’arithmétique. En outre, la MCTv et le raisonnement mathématique font appel à des régions similaires du cerveau, notamment dans le cortex pariétal. Le sillon intrapariétal (SIP) semble être particulièrement important, autant dans la réalisation de tâches liées à la MCTv qu’aux habiletés mathématiques. Nous avons créé une tâche de MCTv que 15 participants adultes en santé ont réalisée pendant que nous enregistrions leur activité cérébrale à l’aide de la magnétoencéphalographie (MEG). Nous nous sommes intéressés principalement à la composante SPCM. Une évaluation neuropsychologique a également été administrée aux participants. Nous souhaitions tester l’hypothèse selon laquelle l’activité cérébrale aux capteurs pariéto-occipitaux pendant la tâche de MCTv en MEG sera liée à la performance en mathématiques. Les résultats indiquent que l’amplitude de l’activité pariéto-occipitale pendant la tâche de MCTv permet de prédire les habiletés mathématiques ainsi que la performance dans une tâche de raisonnement perceptif. Ces résultats permettent de confirmer le lien existant entre les habiletés mathématiques et le fonctionnement sous-jacent à la MCTv.
Resumo:
Il est bien établi dans la littérature en criminologie que les pairs délinquants peuvent avoir un effet néfaste sur les comportements d’un jeune. L’analyse des caractéristiques de l’entourage social est donc essentielle à une compréhension globale des conduites individuelles. Puisqu’il est impossible pour un jeune, délinquant ou non, de se distancer complètement du monde conventionnel (Sykes et Matza, 1957; Warr 2002), il importe de considérer le chevauchement des relations conventionnelles et délinquantes pour saisir l’ampleur du phénomène de l’influence social. De surcroît, le réseau social des jeunes ne se limite pas à leurs amis, les membres de la famille, les collègues de classe et de travail pouvant aussi avoir une influence sur les comportements. La présente étude propose une analyse de l’entourage social de 237 jeunes âgés de 14 à 24 ans, fréquentant les organismes communautaires au Québec. Les résultats révèlent que: 1) la participation à un délit chez les jeunes en communauté est fréquente, 2) les caractéristiques du réseau social, reflétant l’enchâssement social, ne se trouvent pas révélatrices de la participation à un délit, 3) côtoyer les membres de son réseau social en grande intensité réduit de manière significative le volume de délits de marché commis dans une année, et ce, même en contrôlant la présence de contacts délinquants dans le réseau, 4) la présence de contacts délinquants dans plus d’une sphère relationnelle composant le réseau social permet de créer un index de dispersion de la délinquance reflétant ainsi l’enchâssement criminel des jeunes et finalement 5) plus les contacts délinquants sont dispersés à travers les sphères relationnelles, plus le risque de participation à un délit augmente. Toutefois, la dispersion des contacts délinquants dans le réseau social ne prédit pas la fréquence des délits commis. À des fins d’intervention, connaître la dispersion de la délinquance dans le réseau social peut aider à la prévention des comportements délinquants.
Resumo:
L’évaluation de l’exposition aux composés organiques volatils (COV) recourt couramment à l’analyse des métabolites urinaires en assumant qu’aucune interaction ne survient entre les composés. Or, des études antérieures ont démontré qu’une inhibition de type compétitive survient entre le toluène (TOL), l’éthylbenzène (EBZ) et le m-xylène (XYL). Le chloroforme, qui est également un solvant métabolisé par le CYP2E1, se retrouve souvent en présence des autres COV dans les échantillons de biosurveillance. La présente étude visait donc à évaluer si le chloroforme (CHL) peut lui aussi interagir avec ces COV et évaluer ces interactions au niveau de l’excrétion des biomarqueurs urinaires associés, soit l’o-crésol, l’acide mandélique et l’acide m-méthylhippurique pour TOL, EBZ et XYL respectivement. Afin d’obtenir des données humaines, cinq volontaires ont été exposés par inhalation à différentes combinaisons de COV (seuls et mélanges binaires ou quaternaires) où la concentration de chacun des composés était égale à 1/4 ou 1/8 de la valeur limite d’exposition (VLE) pour une durée de 6h. Des échantillons d’air exhalé, de sang et d’urine ont été récoltés. Ces données ont ensuite été comparées aux modèles pharmacocinétiques à base physiologique (PCBP) existants afin de les ajuster pour l’excrétion urinaire. Certaines différences ont été observées entre les expositions aux solvants seuls et les coexpositions, mais celles-ci semblent majoritairement attribuables aux remplacements de participants à travers les différentes expositions. Les valeurs de Vmax pour EBZ et CHL ont été optimisées afin de mieux prédire les niveaux sanguins de ces COV. À l’exception du modèle pour EBZ, tous les paramètres pour l’excrétion urinaire ont été obtenus à partir de la littérature. Les modèles adaptés dans cette étude ont permis de simuler adéquatement les données expérimentales.
Resumo:
En se basant sur le principe organisationnel des deux types d’ensembles politiques rencontrés au Bénin, le but de cette recherche est d’explorer un ou des modèles conjoints, classiques et coutumiers, de participation en vue de promouvoir une démocratie participative plus proche des citoyens. Trois échelons spatiaux ont constitué le terrain de la recherche : l’Afrique, le Bénin centre et les milieux proches des anciennes royautés. La documentation et les données d’observations et d’entrevues ont été analysées par la démarche de théorisation ancrée et l’appréhension des phénomènes socio-spatiaux. Des quatre modèles originaux avec les critères endogènes d’appréciation de la participation mis en évidence et caractérisés dans les cultures du Bénin, deux, Togbésso-Hon-Togbassa et Daŋnou, émergent comme représentatifs des exigences d’une démocratie avec des formes territorialisées de la participation. La mise en perspective de la participation au Bénin avec les États d’Afrique montre une bonne performance qui le fait référencer comme le plus performant pour ses procédures et pratiques et comme source d’inspiration de mise en place des dispositifs participatifs dans le palmarès des grandes démocraties. Ses deux instruments de la décision, l’analyse participative et l’audience publique, restent perfectibles. La première, une innovation intéressante à encadrer, limite la participation à des acteurs choisis selon des critères généralement non énoncés. L’audience publique reste insatisfaisante par son inadéquation à la production de la décision collective et un modèle antinomique de la pensée politique africaine qui vise le consensus dans une démarche inclusive à essence délibérative sous forme de palabre. Fondement de la démocratie participative, la palabre offre le soubassement pour un modèle synergique basé sur les principes de délibération collective, d’offre de l’initiative de la décision au citoyen, de l’invitation aux débats et de l’écoute active (DROIE), d’un dispositif décisionnel flexible et adapté, au centre duquel se trouvent la délibération, le huis clos, la validation populaire et la reddition de compte, le recours et la réparation ainsi que le contrôle de qualité de la décision, essentiels à la gestion, et structurants à l’évaluation environnementale.
Resumo:
Cette recherche dresse un portrait de la situation de la relève syndicale au Québec et des tentatives des organisations syndicales pour stimuler la participation de leurs membres de moins de 30 ans. Elle brosse d’abord un aperçu des habitudes sociales, des valeurs et des caractéristiques en emploi des jeunes. Elle nuance et recadre ensuite la problématique des jeunes en ce qui concerne l’identité collective qu’ils partagent instinctivement et les modalités de socialisation à l’interne façonnant leur participation. Cette recherche remet en question la fenêtre de recrutement estimée où les jeunes seraient en mesure d’entâmer leur participation dans les structures syndicales. Au demeurant, elle décrit l’ampleur des innovations syndicales destinées à stimuler la participation des jeunes et démystifie le mandat de l’une d’elle, les comités jeunes, qui peuvent agir à la fois comme porte-parole de leur organisation, comme la voix des jeunes membres et comme pépinière de la relève syndicale. Les données empiriques utilisées pour ce mémoire proviennent d’une vingtaine de groupes de discussion et de huit entretiens semi-dirigés (n=228), tenus dans deux organisations syndicales d’importance au Québec, disposant d’un comité jeunes et organisés par les chercheures d’un projet de recherche plus vaste sur la participation syndicale des jeunes. Nos résultats démontrent en premier lieu une identité collective construite autour de la précarité et des injustices perçues par les nouveaux travailleurs. L’âge ne serait pas significatif dans la construction de l’identité des jeunes qui semblent en phase de conquérir leur identité. En second lieu, le cadre strict de plusieurs modalités de socialisation avait un effet inhibiteur sur la participation, favorisait des relations d’échanges instrumentales et ne tenait pas compte de la sensibilité de cette nouvelle génération pour les interactions réciproques avec leurs représentants syndicaux. Nous avons aussi observé une utilisation limitée des nouvelles technologies, qui présentent des potentialités intéressantes en matière de transfert des connaissances de surcroît. Par ailleurs, nos résultats à l’égard de l’identité collective observée et de la durée du processus de socialisation soulèvent des questionnements sur la pertinence même des structures jeunes dans leurs paramètres actuels. Le parcours d’un jeune vers la militance syndicale apparaît plus tardif qu’escompté. Plus encore, la problématique jeunes met en lumière les tensions intrinsèques au mouvement syndical quant à la libre négociation sociale des intérêts défendus et du consensus interne nécessaire à leur légitimité.