1000 resultados para performance - intégration - marginalité - déviance - Autre
Resumo:
La situation du marché de l'emploi a subi ces dernières années, des changements de structure en profondeur. Le résultat est qu'au Québec, le taux réel d'inactivité révèle que près d'un adulte sur quatre est sans emploi. Parmi les personnes les plus touchées par ces changements on retrouve celles qui sont sans formation spécifique, sans diplôme ou bien sans expérience de travail. Pour rendre apte au travail cette mam d'oeuvre inactive, le Ministère de l'éducation a mis sur pied au milieu des années 90, une mesure d'aide à l'insertion appelée Services d'Intégration Socioprofessionnelle ou S.I.S. Dans le présent essai, nous avons cherché à évaluer le développement de l'employabilité de participants aux S.I.S. Selon les objectifs visés par le Service, on suppose que chaque personne aura acquis certaines attitudes et aptitudes au travail, susceptible de l'aider à retrouver du travail et de le conserver. Nous avons utilisé la structure de recherche test-retest sur le même échantillon. En effet, chaque participant s'est vu administrer le même questionnaire, au début et à la fin des S.I.S. Nous avons ainsi pu suivre l'évolution des facteurs en causes dans une insertion professionnelle. À cela s'ajoutent des données recueillies dans un journal de bord par l'évaluateur/animateur. Celles-ci sont reprises pour donner un sens dans l'analyse des résultats. La mesure utilisée est le questionnaire informatisé Copilote Insertion version 2.20. Celui-ci fut administré une première fois, à seize personnes présentes en amorce des S.LS. Pour la mesure post, nous avions plus que 8 personnes toujours disponibles et respectant le devis de recherche. Pour ces sujets, nous avons comparé chacun des vingt facteurs de Copilote, ainsi que l'évolution des stratégies d'insertion. Pour chacun d'eux, nous avons pu déterminer lesquels des facteurs d'employabilité évalué par le logiciel, démontraient une progression. Il a été démontré que l'ensemble des participants s'accordait beaucoup de difficulté à surmonter l'image de dépendance et d'incapacité, intériorisé avec l'expérience du chômage. Comme quoi, cette clientèle a à faire face à un certain nombre de deuil non résolu. À ce niveau, la structure des S.I.S semble permettre ce nécessaire recadrage de l'expérience chômage. Nous avons aussi observé que la composition du groupe n'a pas été réalisée en respectant le développement de l'employabilité de chacun des participants. Par conséquent, les plus enthousiasmes ont eu à subir l'inconfort de devoir faire face aux discours démotivant des personnes non-prêtes à s'insérer en emploi. La difficulté de sélectionner des personnes dont les besoins en matière de développement de l'employabilité ne seraient pas homogènes pourrait être surmontée si des activités individuelles personnalisées, sont présentées en alternance avec le travail de groupe. Autre constat réalisé est que malgré le temps passé à l'intérieur des SIS, des participants s'accordent plus de difficultés à la fin qu'au début, pour des facteurs d'employabilités. C'est le cas des facteurs du thème Communication de Copilote. La difficulté de mettre en branle une campagne visant la mise en marché de son potentiel de travail, cela vient confirmer que le participant, bien qu'il ait réalisé un bout du trajet le séparant du monde du travail, qu'il n'est pas parvenu à destination.
Resumo:
Ying Chen et Ook Chung sont deux auteurs québécois d’origine asiatique qui ont fait l’objet d’études comparées en raison de leur statut d’écrivain migrant et de leur appartenance à une aire culturelle commune. Bien que leurs oeuvres mettent fréquemment en scène des narrateurs-personnages marginaux et en situation d’exil, celles-ci s’inscrivent au coeur d’intérêts actuels en littérature contemporaine qui permettent de les aborder au-delà de la culture d’origine des auteurs. S’intéressant à la marginalité du narrateur autodiégétique dans Un enfant à ma porte (2009) et dans La Trilogie coréenne (2012), notre mémoire a pour objectif d’étudier l’altérité des narrateurs et de montrer de quelle façon ceux-ci se retrouvent en décalage par rapport à leur récit. L’analyse de la figure de l’étranger dans le roman de Chung et de la folle dans celui de Chen, plus particulièrement de leur prise de parole respective, conduit à montrer en quoi l’altérité des narrateurs-personnages n’est pas que culturelle. L’altérité dans ces romans témoignerait plutôt d’une posture ontologique beaucoup plus fondamentale et générale, qui se répercute à la fois sur le rôle du personnage dans le récit et sur sa fonction de narrateur. Menée en deux temps (le personnage Autre puis le narrateur Autre), notre étude permet d’établir un lien entre l’inadéquation énoncée et la compétence narrative.
Resumo:
[…] Depuis le succès, parfois trop galvaudé, de la Banque Grameen au Bengladesh, la microfinance est de plus en plus vue comme un des outils privilégiés de développement dans les pays où les capitaux sont rares. L'intérêt pour la microfinance a cumulé au Sommet sur le microcrédit tenu à Washington en février 1997. Le sommet a réuni une pléiade d'acteurs parmi les plus importants de la planète. Un objectif a fait consensus : atteindre 100 millions de familles pauvres de la planète d'ici 2005 et beaucoup d'argent en jeux. D'un autre côté, certains disent qu'il y a un danger à vouloir tourner un outil en une panacée et doutent de ce genre de déclaration typique des grands sommets. L'expansion de la microfinance serait trop rapide et aléatoire et «jeter» trop d'argent aux pauvres est la meilleure recette pour en assurer l'échec D'autres opposants disent également que la microfinance est en train de drainer beaucoup d'argent et d'efforts vers des programmes dont la viabilité est douteuse au détriment des programmes essentiels de santé et d'éducation. Cet essai vise essentiellement à dresser un portrait général de la microfinance dans le contexte du développement international. L'accent est mis sur l'évaluation de la performance de la microfinance sous deux angles : [1] Les performances financières et opérationnelles des institutions de microfinance (IMF). Ici, on considère l'institution comme l'objet de l'évaluation. L'objectif est d'évaluer la pérennité de l'institution, laquelle peut être estimée à travers des indicateurs (ratios) de viabilité financière, de la qualité du portefeuille, de la productivité et d'efficacité dans l'utilisation des actifs immobiles et des capitaux, etc. Plus précisément, on s'intéressera au rendement ajusté sur l'actif, au portefeuille à risque, à l'autosuffisance financière et opérationnelle. [2] Les impacts socio-économiques de la microfinance. Une des prétentions des adeptes de la microfinance est qu'elle puisse contribuer à réduire la pauvreté ou du moins à améliorer le sort des bénéficiaires de crédits. Dans cette optique, l'objet de l'évaluation n'est plus seulement l'institution, il devra aussi englober les effets sur les clients et parfois même sur l'environnement financier si l'objectif est d'amener les clients à intégrer éventuellement le marché financier formel. Or, il n'est pas aisé d'évaluer tous ces impacts de la microfinance. L'essai exposera la problématique entourant ces évaluations d'impacts. Les évaluations de la performance et des impacts sont devenues incontournables. Sans trop entrer en détails sur l'importance de ces évaluations, on peut relever au passage les éléments suivants : - Les bailleurs de fonds veulent savoir si leurs fonds sont utilisés efficacement et s'ils ont des impacts en fonction des objectifs fixés. - Les gestionnaires veulent mieux gérer leurs institutions et satisfaire les bailleurs. - Les organisations d'appuis techniques veulent mieux servir les IMF et avancer les connaissances. - Quant aux clients, on ne leur demande pas souvent leurs avis. Pourtant, ils sont les mieux placés pour connaître les impacts des crédits sur leurs conditions de vie. Les clients informés veulent aussi connaître les risques qu'ils encourent sur les prêts. Certains placent leurs épargnes dans les EMF, ils veulent donc connaître les rendements et les risques de leurs placements. […]
Resumo:
Dans cette recherche, l’enseignante-chercheuse analyse la méthode d’enseignement, les activités d’apprentissage et les modalités d’évaluation de la portion théorique du cours de stage en biochimie clinique dans le cadre du programme Technologie d’analyses biomédicales (140.BO) offert au Collège de Rosemont. Dans les années précédant la recherche, les stagiaires avaient formulé certains problèmes dont: un contenu trop lourd et le manque d’interactivité. Ces contraintes ont obligé l’enseignante-chercheuse à se questionner sur le processus pédagogique et sur la relation d’apprentissage. De plus, le manque d’intégration des connaissances des stagiaires mis en évidence lors de la préparation de l’examen national de la SCSLM et la baisse de performance à ces mêmes examens ont été les éléments déclencheurs de la recherche. Trois approches pédagogiques ont été utilisées afin de favoriser l’intégration des apprentissages et faire progresser les étudiantes et les étudiants vers un résultat acceptable en fin de stage. Premièrement, il a fallu passer par une réorganisation de contenu. Deuxièmement, nous avons mis en place un environnement plus interactif favorisant l’évaluation formative à l’aide de la plate-forme pédagogique Moodle. Troisièmement, nous avons introduit un mode d’évaluation formative qui s’harmonise à l’évaluation sommative. Toutes ces étapes ont été effectuées afin de faire progresser l’étudiante et l’étudiant et de l’informer clairement de ses performances pour qu’elle ou qu’il en arrive à intégrer les nombreuses notions théoriques en biochimie. Il est important de préciser que c’est à partir des assises du cadre de référence de cette recherche qu’il a été possible de dégager des actions pour innover notre pratique pédagogique. C’est par l’évaluation formative s’inscrivant dans diverses modalités de régulation ou d’autorégulation de l’apprentissage, permettant l’accès à la reprise à l’aide des questionnaires interactifs de la plate-forme pédagogique Moodle que nous avons mis en place une première solution. Comme deuxième solution, l’enseignante-chercheuse a présenté à chaque étape, par sujet de révision, une évaluation formative à des fins sommatives avec la possibilité d’une deuxième tentative. Les performances qui y ont été évaluées, ont été modifiables et ont contribué à la note de fin d’étape. Le but de notre démarche était de trouver des réponses à la question de recherche: L’évaluation formative par l’utilisation des technologies améliorera-t-elle les apprentissages des étudiantes et des étudiants en biochimie à la fin du programme d’étude en Techniques d’analyses biomédicales? La conception du scénario pédagogique ainsi que la mise à l’essai du matériel servant à l’évaluation formative à travers les outils interactifs de la plate-forme Moodle, ont tous été aussi importants. Dans le cadre du choix méthodologique, les trois objectifs spécifiques de la recherche ont été respectés, c’est-à-dire: 1. Concevoir le matériel servant à l’évaluation formative et le générer sur la plate-forme informatisée; 2. Mettre en application l’utilisation des nouveaux éléments d’apprentissage et des processus d’évaluation; 3. Vérifier si l’évaluation formative influencera l’apprentissage qui aura pour but une meilleure intégration des connaissances. Par le volet qualitatif de l’étude, l’enseignante-chercheuse vise à comprendre ce qui a été formulé par les étudiantes et les étudiants relativement à une démarche d’évaluation formative, interactive et continue générée par l’usage de l’outil informatisé Moodle. Cette démarche d’apprentissage assisté par ordinateur comprenait des applications d’évaluation formative élaborées sur la plate-forme pédagogique Moodle pour que les étudiantes et les étudiants en arrivent à cibler plus facilement leurs lacunes. Ainsi, les étudiantes et les étudiants étaient en mesure d’y remédier immédiatement par la fonction régulatrice propre à l’évaluation formative à l’aide des TIC. Ce qui situe la recherche dans le pôle de l’innovation, c’est l’intégration des TIC qui a permis d’établir les modalités d’évaluation formative à des fins sommatives, une reprise en deux temps, dans une perspective d’intégration des apprentissages. Par la collecte de données, se rangeant sous le paradigme interprétatif, la grille d’appréciation et l’entrevue semi-dirigée ont permis de faire ressortir ce que les étudiantes et les étudiants ont noté comme éléments d’approbation ou de valorisation de l’enseignement et de l’apprentissage. Dans le volet quantitatif de l’étude, l’enseignante-chercheuse a analysé les résultats des examens du parcours de stage dans l’intérêt de savoir s’il y a eu amélioration des apprentissages des étudiantes et des étudiants en stage à la fin du programme. De ces étapes, l’interprétation des données recueillies a permis d’alimenter la réflexion sur les principales approches mises en place dans les cours théoriques du stage en biochimie clinique. Cette étape a contribué à supporter l’objectivation du sens produit de cette recherche. Les résultats obtenus et l’interprétation qui en résulte présente que l’ensemble des stagiaires s’accorde à dire que les tests formatifs, le processus d’évaluation formative à des fins sommatives, une reprise en deux temps et le contenu interactif sur la plate-forme Moodle, permettent de faire des liens entre les connaissances déjà acquises, d’intégrer la matière et contribue à stimuler leur motivation à fournir un effort soutenu. L’utilisation des ressources du système de gestion de l’apprentissage Moodle a permis d’établir des modes d’évaluation formative dans une perspective d’intégration des apprentissages. Ces résultats sont intéressants puisqu’il a été possible de constater les difficultés des stagiaires aux examens, de relier des questions à des objectifs moins bien réussis et pour lesquels les étudiantes et les étudiants affirment ne pas avoir assez de temps d’enseignement à propos de ces notions théoriques. L’enseignante-chercheuse a alors entrepris une démarche d’amélioration continue de sa pratique pédagogique et de l’environnement numérique d’apprentissage. Entre 2012 et 2015, elle a utilisé une grille d’évaluation et a analysé les résultats des examens lui permettant de mieux cibler les ressources à améliorer pour favoriser la réussite de ses étudiantes et de ses étudiants. Elle poursuit sa réflexion à propos des conditions d’appropriation des connaissances théoriques en biochimie et aux interventions les plus susceptibles d’assurer l’intégration des apprentissages.
Resumo:
1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.
Resumo:
Les travaux menés au LCPL depuis plusieurs année sur l'engraissement contrôlé de l'huître creuse Crassostrea gigas ont permis, à l'échelle expérimentale de définir les différents paramètres d'élevage: Température: 14°C ration alimentaire: 2.109 cell/ind/j de la diatomée Skeletonema costatum indice AFNOR initial sans incidence débit d'eau: 3 lIind/h eau de mer ou eau salée souterraine Dans ces conditions et après 30 jours d'engraissement, le poids total des huîtres a progressé de 10%, le poids sec de 230%, l'indice AFNOR de 80% et la concentration en glycogène de 450%. Le travail réalisé ici a pour but de transposer de l'échelle expérimentale à une échelle significative pour les professionnels, la technique d'engraissement contrôlé en utilisant l'eau salée souterraine pour la production de phytoplancton d'une part et comme vecteur de régulation thermique d'autre part. En effet, un des intérêts de l'utilisation de l'eau salée souterraine réside dans sa température constante de 14°C permettant un engraissement des huîtres en toute saison sans risque de déclenchement de la gamétogenèse. Afin de vérifier cette possibilité, l'étude a été réalisée au cours de deux saisons: printemps et automne. Pour l'eassai automnal, trois bassins de 8 m2 ont été utilisés, alimentés respectivement en eau de mer naturelle, eau de mer régulé en température par échange thermique avec de l'eau salée souterraine et eau salée souterraine traitée. Dans chaque bassin, 330 kg d'huîtres ont été disposées en 7 ruches de 4 clayettes. Pour l'essai printanier, seuls deux bassins ont été utilisés, alimentés en eau de mer thermorégulée à deux débits différents: 0.61/h et 3 lIh. L'étude a été conduite pour chaque saison sur une période de 35 jours. En automne 2000, l'indice de qualité de chair de 8.2 initialement, a atteint 12.5 en eau salée souterraine, 13.8 en eau de mer thermorégulée et 14.2 en eau de mer naturelle. Le poids de chair sèche passe de 0.9 g initialement à respectivement 2.32g, 2.39g et 2.37g. Les dosages de Pb, Cd, Hg, Mn et As ne montent pas d'évolution entre le début et la fin de l'élevage, par contre le Fe augmente sensiblement dans les huîtres sur eau salée souterraine traitée. En fin d'élevage, une période de stockage de 4 semaines des huîtres sans nourriture, n'a pas montré de perte de qualité. Au printemps 2001, un deuxième essai sera conduit pour vérifier les résultats obtenus à l'automne 2000, confirmer le choix du milieu d'élevage et proposer les éléments permettant d'approcher les coûts de production.
Resumo:
Résumé : Cette juxtaposition de matériaux solides -blocs, pierres ou briques,...- liés ou non entre eux que nous appelons maçonnerie ne se comporte pas très bien vis-à-vis des forces latérales, surtout si elle n’a pas été réalisée suivant les normes parasismiques ou de façon adéquate. Cette vulnérabilité (glissement, cisaillement, déchirure en flexion, ou tout autre) vient souvent du fait même de ce processus d’empilement, des problèmes d’interaction avec le reste de la structure et aussi à cause des caractéristiques mécaniques peu fiables de certains éléments utilisés. Malgré cette défaillance structurale, la maçonnerie est encore utilisée aujourd’hui grâce à son côté traditionnel, sa facilité de mise en œuvre et son coût d’utilisation peu élevé. Depuis quelques années, la maçonnerie s’est enrichie de documents qui ont été publiés par divers chercheurs dans le but d’une meilleure compréhension des caractéristiques mécaniques des éléments et aussi, et surtout, des mécanismes de rupture des murs de maçonnerie pour une meilleure réponse face aux sollicitations sismiques. Beaucoup de programmes expérimentaux ont alors été effectués et tant d’autres sont encore nécessaires. Et c’est dans ce contexte que cette recherche a été conduite. Elle présentera, entre autres, le comportement sous charges latérales d’un mur en maçonnerie armée entièrement rempli de coulis. Ce projet de recherche fait partie d’un programme plus large visant à une meilleure connaissance du comportement sismique de la maçonnerie pour une amélioration des techniques de construction et de réparation des ouvrages en maçonnerie.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
The current dominance of African runners in long-distance running is an intriguing phenomenon that highlights the close relationship between genetics and physical performance. Many factors in the interesting interaction between genotype and phenotype (eg, high cardiorespiratory fitness, higher hemoglobin concentration, good metabolic efficiency, muscle fiber composition, enzyme profile, diet, altitude training, and psychological aspects) have been proposed in the attempt to explain the extraordinary success of these runners. Increasing evidence shows that genetics may be a determining factor in physical and athletic performance. But, could this also be true for African long-distance runners? Based on this question, this brief review proposed the role of genetic factors (mitochondrial deoxyribonucleic acid, the Y chromosome, and the angiotensin-converting enzyme and the alpha-actinin-3 genes) in the amazing athletic performance observed in African runners, especially the Kenyans and Ethiopians, despite their environmental constraints.
Resumo:
A rapid, sensitive and specific method for quantifying propylthiouracil in human plasma using methylthiouracil as the internal standard (IS) is described. The analyte and the IS were extracted from plasma by liquid-liquid extraction using an organic solvent (ethyl acetate). The extracts were analyzed by high performance liquid chromatography coupled with electrospray tandem mass spectrometry (HPLC-MS/MS) in negative mode (ES-). Chromatography was performed using a Phenomenex Gemini C18 5μm analytical column (4.6mm×150mm i.d.) and a mobile phase consisting of methanol/water/acetonitrile (40/40/20, v/v/v)+0.1% of formic acid. For propylthiouracil and I.S., the optimized parameters of the declustering potential, collision energy and collision exit potential were -60 (V), -26 (eV) and -5 (V), respectively. The method had a chromatographic run time of 2.5min and a linear calibration curve over the range 20-5000ng/mL. The limit of quantification was 20ng/mL. The stability tests indicated no significant degradation. This HPLC-MS/MS procedure was used to assess the bioequivalence of two propylthiouracil 100mg tablet formulations in healthy volunteers of both sexes in fasted and fed state. The geometric mean and 90% confidence interval CI of Test/Reference percent ratios were, without and with food, respectively: 109.28% (103.63-115.25%) and 115.60% (109.03-122.58%) for Cmax, 103.31% (100.74-105.96%) and 103.40% (101.03-105.84) for AUClast. This method offers advantages over those previously reported, in terms of both a simple liquid-liquid extraction without clean-up procedures, as well as a faster run time (2.5min). The LOQ of 20ng/mL is well suited for pharmacokinetic studies. The assay performance results indicate that the method is precise and accurate enough for the routine determination of the propylthiouracil in human plasma. The test formulation with and without food was bioequivalent to reference formulation. Food administration increased the Tmax and decreased the bioavailability (Cmax and AUC).
Resumo:
The aim of this study was to evaluate the performance of the Centers for Dental Specialties (CDS) in the country and associations with sociodemographic indicators of the municipalities, structural variables of services and primary health care organization in the years 2004-2009. The study used secondary data from procedures performed in the CDS to the specialties of periodontics, endodontics, surgery and primary care. Bivariate analysis by χ2 test was used to test the association between the dependent variable (performance of the CDS) with the independents. Then, Poisson regression analysis was performed. With regard to the overall achievement of targets, it was observed that the majority of CDS (69.25%) performance was considered poor/regular. The independent factors associated with poor/regular performance of CDS were: municipalities belonging to the Northeast, South and Southeast regions, with lower Human Development Index (HDI), lower population density, and reduced time to deployment. HDI and population density are important for the performance of the CDS in Brazil. Similarly, the peculiarities related to less populated areas as well as regional location and time of service implementation CDS should be taken into account in the planning of these services.
Resumo:
To examine the influence of l-arginine supplementation in combination with physical training on mitochondrial biomarkers from gastrocnemius muscle and its relationship with physical performance. Male Wistar rats were divided into four groups: control sedentary (SD), sedentary supplemented with l-arginine (SDLA), trained (TR) and trained supplemented with l-arginine (TRLA). Supplementation of l-arginine was administered by gavage (62.5mg/ml/day/rat). Physical training consisted of 60min/day, 5days/week, 0% grade, speed of 1.2km/h. The study lasted 8weeks. Skeletal muscle mitochondrial enriched fraction as well as cytoplasmic fractions were obtained for Western blotting and biochemical analyses. Protein expressions of transcriptor coactivator (PGC-1α), transcriptor factors (mtTFA), ATP synthase subunit c, cytochrome oxidase (COXIV), constitutive nitric oxide synthases (eNOS and nNOS), Cu/Zn-superoxide dismutase (SOD) and manganese-SOD (Mn-SOD) were evaluated. We also assessed in plasma: lipid profile, glycemia and malondialdehyde (MDA) levels. The nitrite/nitrate (NOx(-)) levels were measured in both plasma and cytosol fraction of the gastrocnemius muscle. 8-week l-arginine supplementation associated with physical training was effective in promoting greater tolerance to exercise that was accompanied by up-regulation of the protein expressions of mtTFA, PGC-1α, ATP synthase subunit c, COXIV, Cu/Zn-SOD and Mn-SOD. The upstream pathway was associated with improvement of NO bioavailability, but not in NO production since no changes in nNOS or eNOS protein expressions were observed. This combination would be an alternative approach for preventing cardiometabolic diseases given that in overt diseases a profound impairment in the physical performance of the patients is observed.
Resumo:
Objective Adapt the 6 minutes walking test (6MWT) to artificial gait in complete spinal cord injured (SCI) patients aided by neuromuscular electrical stimulation. Method Nine male individuals with paraplegia (AIS A) participated in this study. Lesion levels varied between T4 and T12 and time post injured from 4 to 13 years. Patients performed 6MWT 1 and 6MWT 2. They used neuromuscular electrical stimulation, and were aided by a walker. The differences between two 6MWT were assessed by using a paired t test. Multiple r-squared was also calculated. Results The 6MWT 1 and 6MWT 2 were not statistically different for heart rate, distance, mean speed and blood pressure. Multiple r-squared (r2 = 0.96) explained 96% of the variation in the distance walked. Conclusion The use of 6MWT in artificial gait towards assessing exercise walking capacity is reproducible and easy to apply. It can be used to assess SCI artificial gait clinical performance.
Resumo:
The pathological mechanisms underlying cognitive dysfunction in multiple sclerosis (MS) are not yet fully understood and, in addition to demyelinating lesions and gray-matter atrophy, subclinical disease activity may play a role. To evaluate the contribution of asymptomatic gadolinium-enhancing lesions to cognitive dysfunction along with gray-matter damage and callosal atrophy in relapsing-remitting MS (RRMS) patients. Forty-two treated RRMS and 30 controls were evaluated. MRI (3T) variables of interest were brain white-matter and cortical lesion load, cortical and deep gray-matter volumes, corpus callosum volume and presence of gadolinium-enhancing lesions. Outcome variables included EDSS, MS Functional Composite (MSFC) subtests and the Brief Repeatable Battery of Neuropsychological tests. Cognitive dysfunction was classified as deficits in two or more cognitive subtests. Multivariate regression analyses assessed the contribution of MRI metrics to outcomes. Patients with cognitive impairment (45.2%) had more cortical lesions and lower gray-matter and callosal volumes. Patients with subclinical MRI activity (15%) had worse cognitive performance. Clinical disability on MSFC was mainly associated with putaminal atrophy. The main independent predictors for cognitive deficits were high burden of cortical lesions and number of gadolinium-enhancing lesions. Cognitive dysfunction was especially related to high burden of cortical lesions and subclinical disease activity. Cognitive studies in MS should look over subclinical disease activity as a potential contributor to cognitive impairment.
Resumo:
cDNA arrays are a powerful tool for discovering gene expression patterns. Nylon arrays have the advantage that they can be re-used several times. A key issue in high throughput gene expression analysis is sensitivity. In the case of nylon arrays, signal detection can be affected by the plastic bags used to keep membranes humid. In this study, we evaluated the effect of five types of plastics on the radioactive transmittance, number of genes with a signal above the background, and data variability. A polyethylene plastic bag 69 μm thick had a strong shielding effect that blocked 68.7% of the radioactive signal. The shielding effect on transmittance decreased the number of detected genes and increased the data variability. Other plastics which were thinner gave better results. Although plastics made from polyvinylidene chloride, polyvinyl chloride (both 13 μm thick) and polyethylene (29 and 7 μm thick) showed different levels of transmittance, they all gave similarly good performances. Polyvinylidene chloride and polyethylene 29 mm thick were the plastics of choice because of their easy handling. For other types of plastics, it is advisable to run a simple check on their performance in order to obtain the maximum information from nylon cDNA arrays.