997 resultados para Aide mutuelle
Resumo:
L'auteure analyse sa pratique d'aide pédagogique individuelle (A.P.I.) auprès de sept étudiants du collégial qu'elle a reçus en entrevue clinique, après que ce derniers aient échoué la majorité des cours auxquels ils étaient inscrits à la session d'automne 1991. Par cette recherche, l'auteure veut identifier, décrire, analyser et évaluer ses interventions d'A.P.I. auprès des élèves en situation d'échecs multiples. Elle examine ses entrevues cliniques dans la double perspective des rôles qu'elle a exercés auprès de ces sept élèves ainsi que des thèmes sur lesquels portaient ses interventions. La microanalyse des entrevues s'est effectuée selon deux grilles élaborées à cet effet. À la lumière des résultats de sa démarche autoréflexive, l'auteure identifie les forces et les limites de ses interventions et propose des mesures pour en accroître l'efficience.
Resumo:
L’industrie des biocarburants de deuxième génération utilise, entre autre, la biomasse lignocellulosique issue de résidus forestiers et agricoles et celle issue de cultures énergétiques. Le sorgho sucré [Sorghum bicolor (L.) Moench] fait partie de ces cultures énergétiques. L’intérêt croissant de l’industrie agroalimentaire et des biocarburants pour cette plante est dû à sa haute teneur en sucres (jusqu’à 60% en masse sèche). En plus de se développer rapidement (en 5-6 mois), le sorgho sucré a l’avantage de pouvoir croître sur des sols pauvres en nutriments et dans des conditions de faibles apports en eau, ce qui en fait une matière première intéressante pour l’industrie, notamment pour la production de bioéthanol. Le concept de bioraffinerie alliant la production de biocarburants à celle de bioénergies ou de bioproduits est de plus en plus étudié afin de valoriser la production des biocarburants. Dans le contexte d’une bioraffinerie exploitant la biomasse lignocellulosique, il est nécessaire de s’intéresser aux différents métabolites extractibles en plus des macromolécules permettant la fabrication de biocarburants et de biocommodités. Ceux-ci pouvant avoir une haute valeur ajoutée et intéresser l’industrie pharmaceutique ou cosmétique par exemple. Les techniques classiques pour extraire ces métabolites sont notamment l’extraction au Soxhlet et par macération ou percolation, qui sont longues et coûteuses en énergie. Ce projet s’intéresse donc à une méthode d’extraction des métabolites primaires et secondaires du sorgho sucré, moins coûteuse et plus courte, permettant de valoriser économiquement l’exploitation industrielle du de cette culture énergétique. Ce travail au sein de la CRIEC-B a porté spécifiquement sur l’utilisation d’une émulsion ultrasonique eau/carbonate de diméthyle permettant de diminuer les temps d’opération (passant à moins d’une heure au lieu de plusieurs heures) et les quantités de solvants mis en jeu dans le procédé d’extraction. Cette émulsion extractive permet ainsi de solubiliser à la fois les métabolites hydrophiles et ceux hydrophobes. De plus, l’impact environnemental est limité par l’utilisation de solvants respectueux de l’environnement (80 % d’eau et 20 % de carbonate de diméthyle). L’utilisation de deux systèmes d’extraction a été étudiée. L’un consiste en la recirculation de l’émulsion, en continu, au travers du lit de biomasse; le deuxième permet la mise en contact de la biomasse et des solvants avec la sonde à ultrasons, créant l’émulsion et favorisant la sonolyse de la biomasse. Ainsi, en réacteur « batch » avec recirculation de l’émulsion eau/DMC, à 370 mL.min[indice supérieur -1], au sein du lit de biomasse, l’extraction est de 37,91 % en 5 minutes, ce qui est supérieur à la méthode ASTM D1105-96 (34,01 % en 11h). De plus, en réacteur « batch – piston », où la biomasse est en contact direct avec les ultrasons et l’émulsion eau/DMC, les meilleurs rendements sont de 35,39 % en 17,5 minutes, avec 15 psig de pression et 70 % d’amplitude des ultrasons. Des tests effectués sur des particules de sorgho grossières ont donné des résultats similaires avec 30,23 % d’extraits en réacteur « batch » avec recirculation de l’émulsion (5 min, 370 mL.min[indice supérieur -1]) et 34,66 % avec le réacteur « batch-piston » (30 psig, 30 minutes, 95 % d’amplitude).
Resumo:
La vitesse des ondes de cisaillement est généralement mesurée en laboratoire en utilisant des éléments piézoélectriques comme les bender elements (BE). Cependant, ces techniques présentent certains problèmes au niveau de l’émission à la fois des ondes primaires et de cisaillement, les effets de champ proche, les effets de bords, et l’incertitude au niveau de l’interprétation du signal. Une nouvelle technique, baptisée technique des anneaux piézoélectriques (P-RAT) a été développée dans le laboratoire géotechnique de l'Université de Sherbrooke afin de minimiser / éliminer les difficultés associées aux autres techniques, en particulier, la pénétration des échantillons, obligatoire pour la technique BE. Cette étude présente une description de la technique P-RAT ainsi que les résultats des simulations numériques réalisées avec le code informatique COMSOL afin d'étudier l'interaction entre les composantes du P-RAT et l'échantillon testé (sol ou solide). L’étude démontre l’efficacité du concept de la méthode P-RAT et présente des modifications pour améliorer la fiabilité et la performance de la méthode P-RAT afin d’étendre son applicabilité dans le domaine du génie civil. L’implémentation de la dernière génération de P-RAT dans une cellule triaxiale et une autre œdométrique était l’aboutissement de cette étude.
Resumo:
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
Resumo:
Thèse réalisée dans le cadre d'un Ph.D.interdisciplinaire en Psychologie, en création littéraire et en orthopédagogie. L'impact de la création littéraire a été étudié chez des adolescents atteints d'une maladie chronique au CHU Sainte-Justine de Montréal. Cette recherche est exploratoire car la création littéraire n'a jamais été étudiée dans cette perspective. Elle a été réalisée sous la direction de Catherine Mavrikakis, professeure et écrivain à la Faculté des arts et sciences au Département des littératures francophones de l'Université de Montréal et de Jean-François Saucier, psychiatre et anthropologue à la Faculté de médecine au Département de psychiatrie de l'Université de Montréal et chercheur au CHU Sainte-Justine. Interdisciplinary Study.
Resumo:
). L’ordre de présentation des classes intégrées au set correspond à l’ordre d’apparition de ces classes dans l’outil ZooPhytoImage, qui correspond à l’ordre des classes dans l’arborescence des répertoires contenant les vignettes.
Resumo:
Ce mémoire vise à comprendre la détermination des droits et des obligations relatifs aux individus seuls aptes à l’emploi bénéficiant de l’aide sociale allemande entre 1990 et 2012. Tout d’abord, il passe en revue les principaux mécanismes formels de fixation et d’actualisation des droits monétaires présents dans la plupart des pays de l’OCDE et montre par quels moyens l’Allemagne détermine la générosité des revenus de l’aide sociale. Soulevant le caractère plutôt arbitraire de ces mécanismes, il poursuit en soutenant que la générosité relative des droits et des obligations des individus seuls aptes à l’emploi peut principalement s’expliquer en des termes de conditionnalité et de mérite. Par le biais d’une revue de la littérature sur le sujet, le mémoire illustre comment les dynamiques catégorielles et la construction des programmes de dernier recours allemands en viennent à refléter une hiérarchie implicite du mérite expliquant à la fois la générosité plus faible des droits monétaires et la plus grande conditionnalité des droits sociaux visant les bénéficiaires seuls aptes à l’emploi. Finalement, il soutient que la construction du régime concernant les individus aptes à l’emploi en Allemagne doit se comprendre selon l’utilisation des droits et des obligations en tant que levier de régulation de l’individu et du marché du travail. Dans cette optique, le mémoire montre que les réformes Hartz du marché du travail ont non seulement formalisé le tournant pris vers l’activation du sans-emploi en Allemagne, mais que la construction particulière du nouveau régime de droits et d’obligations visant les individus aptes reflète ultimement l’objectif de diminution du chômage via la création d’emplois dans le secteur des bas salaires.
Resumo:
Ce mémoire vise à comprendre la détermination des droits et des obligations relatifs aux individus seuls aptes à l’emploi bénéficiant de l’aide sociale allemande entre 1990 et 2012. Tout d’abord, il passe en revue les principaux mécanismes formels de fixation et d’actualisation des droits monétaires présents dans la plupart des pays de l’OCDE et montre par quels moyens l’Allemagne détermine la générosité des revenus de l’aide sociale. Soulevant le caractère plutôt arbitraire de ces mécanismes, il poursuit en soutenant que la générosité relative des droits et des obligations des individus seuls aptes à l’emploi peut principalement s’expliquer en des termes de conditionnalité et de mérite. Par le biais d’une revue de la littérature sur le sujet, le mémoire illustre comment les dynamiques catégorielles et la construction des programmes de dernier recours allemands en viennent à refléter une hiérarchie implicite du mérite expliquant à la fois la générosité plus faible des droits monétaires et la plus grande conditionnalité des droits sociaux visant les bénéficiaires seuls aptes à l’emploi. Finalement, il soutient que la construction du régime concernant les individus aptes à l’emploi en Allemagne doit se comprendre selon l’utilisation des droits et des obligations en tant que levier de régulation de l’individu et du marché du travail. Dans cette optique, le mémoire montre que les réformes Hartz du marché du travail ont non seulement formalisé le tournant pris vers l’activation du sans-emploi en Allemagne, mais que la construction particulière du nouveau régime de droits et d’obligations visant les individus aptes reflète ultimement l’objectif de diminution du chômage via la création d’emplois dans le secteur des bas salaires.
Resumo:
Si on considère l'atteinte de l'autonomie comme étant un cheminement progressif, l'enseignante ou l'enseignant doit concevoir des stratégies d'apprentissage dans l'optique que ses interventions auprès des élèves deviennent de moins en moins fréquentes. On permet ainsi à ces derniers de prendre davantage le contrôle de leurs apprentissages et on réduit leur dépendance envers l'enseignant. Cette recherche porte sur le développement de l'autonomie dans l'utilisation des logiciels et présente une méthode d'enseignement sur l'utilisation de la fonction "Aide" des logiciels qui donne à l'élève des stratégies lui permettant d'être l'agent de son propre développement. De quelle manière pouvons-nous amener l'élève à utiliser l'"Aide" des logiciels, de façon stratégique, lorsqu'il doit se débrouiller par lui-même? La démarche de résolution de problèmes peut-elle lui être utile? Quelles sont les connaissances susceptibles de le mener graduellement vers la réussite et de le guider progressivement vers l'autonomie? Autant de questions auxquelles la recherche s'intéresse. Nous avons d'abord élaboré une stratégie d'enseignement, construit des instruments pour soutenir la démarche et conçu un modèle d'utilisation de la stratégie. Nous l'avons ensuite validée, par sa mise à l'essai auprès d'un groupe de neuf élèves et nous en avons, enfin, évalué les résultats. Différents instruments tels que grilles d'observation, questionnaires d'entrevue, fiches d'expérimentation, procéduriers et documents réalisés par les élèves ont permis de recueillir des données qui ont servi à l'évaluation de la stratégie. L'analyse de ces données révèle que la performance des élèves pour l'exécution des tâches s'est nettement améliorée après qu'on leur ait enseigné à utiliser la fonction "Aide" et révèle, également, qu'ils l'utilisent de façon plus adéquate. D'autres analyses confirment que le fait d'organiser une stratégie d'enseignement en fonction des catégories de connaissances (déclaratives, procédurales et conditionnelles) est un moyen de favoriser un meilleur engagement cognitif des élèves dans leurs apprentissages. La résolution de problèmes, démarche intégrée à la fiche d'expérimentation utilisée par ces derniers, a fourni un cadre pour utiliser leurs connaissances et préciser leurs stratégies. Les résultats obtenus permettent d'affirmer que les objectifs de la recherche ont été atteints. La mise en place d'activités complexes et variées a permis la construction du savoir stratégique. La démarche de résolution de problèmes a favorisé la réutilisation des connaissances dans différents contextes. Les modèles cognitiviste et constructiviste dont s'inspire la stratégie d'enseignement, ont incité les élèves à recourir à la fonction "Aide" ainsi qu'à leurs connaissances antérieures et à les associer à des contextes d'action où ils ont transféré leurs apprentissages de façon plus autonome. Enseigner à utiliser la fonction "Aide" des logiciels est une pratique qui devrait être intégrée dans les activités pédagogiques de toute enseignante ou enseignant désireux de développer l'autonomie de ses élèves dans l'utilisation de nouveaux logiciels. Cela doit, cependant, résulter d'une démarche structurée incluant des instruments élaborés de manière à induire chez les élèves, de façon progressive, un comportement les menant vers l'autonomie souhaitée.
Resumo:
A Psicofísica aplicada à Clínica com seres humanos pode prover ferramentas alternativas que auxiliem o acesso objetivo e quantificável a condições internas do paciente, que só poderiam ser obtidas, de outra forma, através de seus relatos e descrições. Um exemplo dessa parceria e aplicação da Psicofísica é o aparelho comercial C-Quant (Oculus Optikgeräte, Alemanha), cujo método psicofísico de acesso ao valor de dispersão de luz na retina foi desenvolvido pelo grupo de pesquisadores holandeses liderados pelo Prof. Dr. Thomas van den Berg, do Netherland Institute of Neuroscience (NIN). O acesso ao valor de dispersão de luz na retina é útil para auxiliar no diagnóstico de várias doenças oculares, como catarata. Neste artigo o método psicofísico presente no aparelho (Comparação da Compensação) é descrito.
Resumo:
O PROFAE (Projeto de Profissionalização dos Trabalhadores da Área de Enfermagem) foi uma iniciativa importante na educação profissional. Os objetivos do estudo foram descrever o perfil dos egressos do curso de técnico de enfermagem dos centros de formação da Secretaria de Estado da Saúde de São Paulo e conhecer os reflexos do curso para a atuação na profissão e a mobilidade no mercado de trabalho. A coleta de dados foi realizada por meio de questionário respondido por 216 egressos e por quatro grupos focais com egressos e enfermeiros supervisores. Os respondentes foram, em sua maioria, mulheres com média de 42,2 anos. O curso foi bem avaliado, destacando-se o apoio institucional e as resoluções do Conselho Regional de Enfermagem (COREN) como impulsionadores da procura por ele. Os egressos percebem ter maior iniciativa e preparo teórico após o curso. Na área, a função mais exercida atualmente ainda é a de auxiliar de enfermagem, o que gera insatisfação, pois, especialmente nos serviços públicos, não existem cargos de técnicos.
Resumo:
The influence of political parties on decisions made by members of Congress is a hotly debated issue in political science. In foreign policy, which is usually considered nonpartisan, the matter is even more inconclusive. The current study analyzes all the roll-call votes taken on foreign policy issues in the 2002-2006 legislature of the Chilean Chamber of Deputies. After tracing a spatial map of foreign policy preferences among Chilean Deputies using the Nominate statistical package, we concluded that the ideology of the legislator's political party is a predictive factor for his or her foreign policy behavior. Our findings indicate that the way Chilean legislators structure their preferences on foreign policy issues does not differ significantly from the way they shape their domestic policy preferences.
Resumo:
Background: Coffee consumption has been associated with a lower risk of diabetes, but little is known about the mechanisms responsible for this association, especially related to the time when coffee is consumed. Objective: We examined the long-term effect of coffee, globally and according to the accompanying meal, and of tea, chicory, and caffeine on type 2 diabetes risk. Design: This was a prospective cohort study including 69,532 French women, aged 41-72 y from the E3N/EPIC (Etude Epidemiologique aupres de Femmes de la Mutuelle Generale de l`Education Nationale/European Prospective Investigation into Cancer and Nutrition) cohort study, without diabetes at baseline. Food and drink intakes per meal were assessed by using a validated diet-history questionnaire in 1993-1995. Results: During a mean follow-up of 11 y, 1415 new cases of diabetes were identified. In multivariable Cox regression models, the hazard ratio in the highest category of coffee consumption [>= 3 cups (375 mL)/d] was 0.73 (95% CI: 0.61, 0.87; P for trend < 0.001), in comparison with no coffee consumption. This inverse association was restricted to coffee consumed at lunchtime (hazard ratio: 0.66; 95% CI: 0.57, 0.76) when comparing >1.1 cup (125 mL)/meal with no intake. At lunchtime, this inverse association was observed for both regular and decaffeinated coffee and for filtered and black coffee, with no effect of sweetening. Total caffeine intake was also associated with a statistically significantly lower risk of diabetes. Neither tea nor chicory consumption was associated with diabetes risk. Conclusions: Our data support an inverse association between coffee consumption and diabetes and suggest that the time of drinking coffee plays a distinct role in glucose metabolism. Am J Clin Nutr 2010; 91: 1002-12.
Resumo:
O principal objetivo deste trabalho foi identificar e caracterizar a evolução diária da Camada Limite Atmosférica (CLA) na Região da Grande Vitória (RGV), Estado do Espírito Santo, Brasil e na Região de Dunkerque (RD), Departamento Nord Pas-de-Calais, França, avaliando a acurácia de parametrizações usadas no modelo meteorológico Weather Research and Forecasting (WRF) em detectar a formação e atributos da Camada Limite Interna (CLI) que é formada pelas brisas marítimas. A RGV tem relevo complexo, em uma região costeira de topografia acidentada e uma cadeia de montanhas paralela à costa. A RD tem relevo simples, em uma região costeira com pequenas ondulações que não chegam a ultrapassar 150 metros, ao longo do domínio de estudos. Para avaliar os resultados dos prognósticos feitos pelo modelo, foram utilizados os resultados de duas campanhas: uma realizada na cidade de Dunkerque, no norte da França, em Julho de 2009, utilizando um sistema light detection and ranging (LIDAR), um sonic detection and ranging (SODAR) e dados de uma estação meteorológica de superfície (EMS); outra realizada na cidade de Vitória – Espírito Santo, no mês de julho de 2012, também usando um LIDAR, um SODAR e dados de uma EMS. Foram realizadas simulações usando três esquemas de parametrizações para a CLA, dois de fechamento não local, Yonsei University (YSU) e Asymmetric Convective Model 2 (ACM2) e um de fechamento local, Mellor Yamada Janjic (MYJ) e dois esquemas de camada superficial do solo (CLS), Rapid Update Cycle (RUC) e Noah. Tanto para a RGV quanto para a RD, foram feitas simulações com as seis possíveis combinações das três parametrizações de CLA e as duas de CLS, para os períodos em que foram feitas as campanhas, usando quatro domínios aninhados, sendo os três maiores quadrados com dimensões laterais de 1863 km, 891 km e 297 km, grades de 27 km, 9 km e 3 km, respectivamente, e o domínio de estudo, com dimensões de 81 km na direção Norte-Sul e 63 km na Leste-Oeste, grade de 1 km, com 55 níveis verticais, até um máximo de, aproximadamente, 13.400 m, mais concentrados próximos ao solo. Os resultados deste trabalho mostraram que: a) dependendo da configuração adotada, o esforço computacional pode aumentar demasiadamente, sem que ocorra um grande aumento na acurácia dos resultados; b) para a RD, a simulação usando o conjunto de parametrizações MYJ para a CLA com a parametrização Noah produziu a melhor estimativa captando os fenômenos da CLI. As simulações usando as parametrizações ACM2 e YSU inferiram a entrada da brisa com atraso de até três horas; c) para a RGV, a simulação que usou as parametrizações YSU para a CLA em conjunto com a parametrização Noah para CLS foi a que conseguiu fazer melhores inferências sobre a CLI. Esses resultados sugerem a necessidade de avaliações prévias do esforço computacional necessário para determinadas configurações, e sobre a acurácia de conjuntos de parametrizações específicos para cada região pesquisada. As diferenças estão associadas com a capacidade das diferentes parametrizações em captar as informações superficiais provenientes das informações globais, essenciais para determinar a intensidade de mistura turbulenta vertical e temperatura superficial do solo, sugerindo que uma melhor representação do uso de solo é fundamental para melhorar as estimativas sobre a CLI e demais parâmetros usados por modelos de dispersão de poluentes atmosféricos.
Resumo:
Dental implant recognition in patients without available records is a time-consuming and not straightforward task. The traditional method is a complete user-dependent process, where the expert compares a 2D X-ray image of the dental implant with a generic database. Due to the high number of implants available and the similarity between them, automatic/semi-automatic frameworks to aide implant model detection are essential. In this study, a novel computer-aided framework for dental implant recognition is suggested. The proposed method relies on image processing concepts, namely: (i) a segmentation strategy for semi-automatic implant delineation; and (ii) a machine learning approach for implant model recognition. Although the segmentation technique is the main focus of the current study, preliminary details of the machine learning approach are also reported. Two different scenarios are used to validate the framework: (1) comparison of the semi-automatic contours against implant’s manual contours of 125 X-ray images; and (2) classification of 11 known implants using a large reference database of 601 implants. Regarding experiment 1, 0.97±0.01, 2.24±0.85 pixels and 11.12±6 pixels of dice metric, mean absolute distance and Hausdorff distance were obtained, respectively. In experiment 2, 91% of the implants were successfully recognized while reducing the reference database to 5% of its original size. Overall, the segmentation technique achieved accurate implant contours. Although the preliminary classification results prove the concept of the current work, more features and an extended database should be used in a future work.