998 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
La machine à vecteurs de support à une classe est un algorithme non-supervisé qui est capable d’apprendre une fonction de décision à partir de données d’une seule classe pour la détection d’anomalie. Avec les données d’entraînement d’une seule classe, elle peut identifier si une nouvelle donnée est similaire à l’ensemble d’entraînement. Dans ce mémoire, nous nous intéressons à la reconnaissance de forme de dynamique de frappe par la machine à vecteurs de support à une classe, pour l’authentification d’étudiants dans un système d’évaluation sommative à distance à l’Université Laval. Comme chaque étudiant à l’Université Laval possède un identifiant court, unique qu’il utilise pour tout accès sécurisé aux ressources informatiques, nous avons choisi cette chaîne de caractères comme support à la saisie de dynamique de frappe d’utilisateur pour construire notre propre base de données. Après avoir entraîné un modèle pour chaque étudiant avec ses données de dynamique de frappe, on veut pouvoir l’identifier et éventuellement détecter des imposteurs. Trois méthodes pour la classification ont été testées et discutées. Ainsi, nous avons pu constater les faiblesses de chaque méthode dans ce système. L’évaluation des taux de reconnaissance a permis de mettre en évidence leur dépendance au nombre de signatures ainsi qu’au nombre de caractères utilisés pour construire les signatures. Enfin, nous avons montré qu’il existe des corrélations entre le taux de reconnaissance et la dispersion dans les distributions des caractéristiques des signatures de dynamique de frappe.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Les élèves faibles en mathématiques utilisent des méthodes de travail inefficaces parce qu'ils n'en connaissent pas d'autres et parce qu'ils manquent de support et d'encadrement lorsqu'ils se retrouvent seuls pour étudier. Ces méthodes de travail inadéquates ont des conséquences néfastes sur leur performance en mathématiques: leur étude étant inefficace, ils persistent moins, arrivent moins bien préparés aux examens et développent des attitudes qui nuisent à leur apprentissage en mathématiques. Le but de cette recherche est de mesurer l'effet de l'enseignement de stratégies cognitives et métacognitives supporté par un encadrement de l'étude individuelle sur les attitudes des élèves faibles et sur leurs comportements lors de l'étude en mathématique. Cet effet devrait entraîner aussi une amélioration du rendement scolaire. L'expérimentation s'est déroulée à l'automne 1989 auprès d'élèves inscrits en mathématiques d'appoint au niveau collégial. On enseigna une méthode de travail plus adéquate, composée de stratégies cognitives et métacognitives variées et adaptées aux tâches demandées dans les devoirs de mathématiques. De plus, dans le groupe expérimental, cet enseignement fut soutenu par des consignes à l'intérieur des devoirs de mathématiques; ces consignes, de moins en moins nombreuses et explicites, devaient assurer que l'élève utilise vraiment les stratégies enseignées. Au terme de l'expérimentation, on a mesuré que les élèves du groupe expérimental n'utilisent pas plus les stratégies enseignées que les élèves du groupe contrôle. On a aussi mesuré la corrélation entre l'utilisation des stratégies enseignées d'une part, et les attitudes, les comportements lors de l'étude et le rendement scolaire d'autre part. On constate que la force de ce lien a tendance à augmenter avec le temps. Même si les résultats ne permettent pas de confirmer l'hypothèse principale, il apparaît que les élèves les plus faibles semblent avoir profité davantage de l'encadrement de leur étude personnelle. De plus, et cela pour l'ensemble des sujets, l'évolution de la corrélation entre l'utilisation des stratégies enseignées et diverses variables reliées à l'apprentissage des mathématiques suggère de poursuivre de telles interventions sur une plus longue période de temps.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
La compréhension de l'aérothermique d'un véhicule durant sa phase de développement est une question essentielle afin d'assurer, d'une part, un bon refroidissement et une bonne efficacité de ses composants et d'autre part de réduire la force de traînée et évidement le rejet des gaz à effet de serre ou la consommation d'essence. Cette thèse porte sur la simulation numérique et la validation expérimentale de l'aérothermique d'un véhicule à trois roues dont deux, en avant et une roue motrice en arrière. La simulation numérique est basée sur la résolution des équations de conservation de la masse, de la quantité de mouvement et de l'énergie en utilisant l'approche RANS (Reynolds-Averaged Navier-Stokes). Le rayonnement thermique est modélisé grâce à la méthode S2S (Surface to Surface) qui suppose que le milieu séparant les deux surfaces rayonnantes, ici de l'air, ne participe pas au processus du rayonnement. Les radiateurs sont considérés comme des milieux poreux orthotropes où la perte de pression est calculée en fonction de leurs propriétés inertielle et visqueuse; leur dissipation thermique est modélisée par la méthode Dual flow. Une première validation de l'aérodynamique est faite grâce à des essais en soufflerie. Ensuite, une deuxième validation de la thermique est faite grâce à des essais routiers. Un deuxième objectif de la thèse est consacré à la simulation numérique de l'aérodynamique en régime transitoire du véhicule. La simulation est faite à l'aide de l'approche Detached eddy simulation (DES). Une validation expérimentale est faite à partir d'étude en soufflerie grâce à des mesures locales de vitesse à l'aide de sondes cobra.
Resumo:
Résumé : Au Canada, près de 80% des émissions totales, soit 692 Mt eq. CO[indice inférieur 2], des gaz à effet de serre (GES) sont produits par les émissions de dioxyde de carbone (CO[indice inférieur 2]) provenant de l’utilisation de matières fossiles non renouvelables. Après la Conférence des Nations Unies sur les changements climatiques, COP21 (Paris, France), plusieurs pays ont pour objectif de réduire leurs émissions de GES. Dans cette optique, les microalgues pourraient être utilisées pour capter le CO[indice inférieur 2] industriel et le transformer en biomasse composée principalement de lipides, de glucides et de protéines. De plus, la culture des microalgues n’utilise pas de terre arable contrairement à plusieurs plantes oléagineuses destinées à la production de biocarburants. Bien que les microalgues puissent être transformées en plusieurs biocarburants tels le bioéthanol (notamment par fermentation des glucides) ou le biométhane (par digestion anaérobie), la transformation des lipides en biodiesel pourrait permettre de réduire la consommation de diesel produit à partir de pétrole. Cependant, les coûts reliés à la production de biodiesel à partir de microalgues demeurent élevés pour une commercialisation à court terme en partie parce que les microalgues sont cultivées en phase aqueuse contrairement à plusieurs plantes oléagineuses, ce qui augmente le coût de récolte de la biomasse et de l’extraction des lipides. Malgré le fait que plusieurs techniques de récupération des lipides des microalgues n’utilisant pas de solvant organique sont mentionnées dans la littérature scientifique, la plupart des méthodes testées en laboratoire utilisent généralement des solvants organiques. Les lipides extraits peuvent être transestérifiés en biodiesel en présence d’un alcool tel que le méthanol et d’un catalyseur (catalyses homogène ou hétérogène). Pour la commercialisation du biodiesel à partir de microalgues, le respect des normes ASTM en vigueur est un point essentiel. Lors des essais en laboratoire, il a été démontré que l’extraction des lipides en phase aqueuse était possible afin d’obtenir un rendement maximal en lipides de 36% (m/m, base sèche) en utilisant un prétraitement consistant en une ébullition de la phase aqueuse contenant les microalgues et une extraction par des solvants organiques. Pour l’estérification, en utilisant une résine échangeuse de cations (Amberlyst-15), une conversion des acides gras libres de 84% a été obtenue à partir des lipides de la microalgue Chlorella protothecoïdes dans les conditions suivantes : température : 120°C, pression autogène, temps de réaction : 60 min, ratio méthanol/lipides: 0.57 mL/g et 2.5% (m/m) Amberlyst-15 par rapport aux lipides. En utilisant ces conditions avec une catalyse homogène (acide sulfurique) et une seconde étape alcaline avec de l’hydroxyde de potassium (température : 60°C ; temps de réaction : 22.2 min; ratio catalyseur microalgue : 2.48% (m/m); ratio méthanol par rapport aux lipides des microalgues : 31.4%), un rendement en esters méthyliques d’acides gras (EMAG) de 33% (g EMAG/g lipides) a été obtenu à partir des lipides de la microalgue Scenedesmus Obliquus. Les résultats démontrent que du biodiesel peut être produit à partir de microalgues. Cependant, basé sur les présents résultats, il sera necessaire de mener d’autre recherche pour prouver que les microalgues sont une matière première d’avenir pour la production de biodiesel.
Resumo:
Au Québec, comme partout dans les pays développés, le vieillissement de la population oblige à repenser les méthodes d’intervention (Couturier et al., 2013). De plus, vieillir chez soi en conservant la meilleure qualité de vie possible est un souhait cher à la majorité des personnes aînées (Mauriat et al., 2009). Pour prendre en considération ce souhait, malgré la complexité de la situation biopsychosociale de plusieurs, le système de santé et de services sociaux offre un service de soutien à domicile dans lequel des coordonnateurs dédiés (ex. : gestionnaires de cas, travailleuses sociales pivots) coordonnent les différents services requis afin de répondre aux besoins des personnes vivant à domicile avec une autonomie fonctionnelle diminuée (Couturier et al., 2013). Plusieurs personnes aînées en situation biopsychosociale complexe refusent les services offerts (Corvol et al., 2012). Ce refus peut aller de la simple décision de ne pas prendre sa médication ou de ne pas accepter l’aide à la toilette à celle de refuser l’aide alimentaire ou des soins et services essentiels, et, ce faisant, d’encourir d’importants risques quant à leur sécurité, voire leur survie (Balard et Somme, 2011). Au Québec, sauf dans les cas d’exception prévus par la loi, la liberté de consentir ou non à des soins est un droit reconnu à chaque personne, consacrant ainsi les principes d’intégrité et d’inviolabilité de la personne (gouvernement du Québec, n.d.). Le cadre professionnel des travailleuses sociales, via leur formation et les lignes directrices de l’Ordre des travailleurs sociaux et des thérapeutes conjugaux et familiaux du Québec (OTSTCFQ), favorise également l’autonomie de la personne à travers des approches visant l’empowerment. Cependant, les mêmes cadres leur donnent également un rôle central à jouer lorsqu’il est question de reconnaître l’inaptitude des personnes à décider pour elles-mêmes, notamment à travers l’acte d’évaluation psychosociale dans un tel contexte. Plus largement, la société donne plus ou moins formellement un mandat de protection des personnes vulnérables aux travailleuses sociales. Ce mandat de protection est au cœur de leur métier, mais il ne fait pas l’objet d’une reconnaissance légale forte, comme c’est le cas pour l’objet aptitude/inaptitude. Pour la réalisation de ce mémoire, 10 entretiens semi-directifs furent menés auprès de travailleuses sociales en soutien à domicile afin de nous permettre de comprendre comment les travailleuses sociales prennent en compte le refus de services des personnes aînées. Pour ce faire, nous répondons à quatre objectifs. Premièrement, nous dégageons le sens qu’accordent les travailleuses sociales au refus de services et la façon dont elles le reçoivent. Deuxièmement, nous décrivons les stratégies d’adaptation au refus des travailleuses sociales. Troisièmement, nous tentons de comprendre les liens entre le sens donné au refus de services et les stratégies d’adaptation des travailleuses sociales. Finalement, nous explorons comment les relations de pouvoir expliquent en partie ces adaptations. Cette recherche nous a permis de montrer que dans de nombreux cas, les stratégies impliquant une prise de pouvoir lors de situations de refus n’étaient pas légitimées par une volonté de faire vivre la personne le plus longtemps possible en la protégeant, mais plutôt par le discours valorisant son autonomie. Nous croyons que ce discours, en constante évolution, pourrait prendre de plus en plus de place dans les prochaines années et qu’en conséquence, si nous souhaitons que les modèles de prise de décision partagée (par exemple l’usager-partenaire) soient appliqués de la bonne façon, il est essentiel d’outiller les travailleuses sociales pour éviter que les personnes résistant au discours de l’autonomie soient perçues comme de mauvais usagers.
Resumo:
Résumé : Contexte: Les maladies cardiovasculaires (MCV) sont un enjeu contemporain de santé publique. Or, des recherches cliniques démontrent que certaines interventions sont efficaces dans leur traitement et prévention. Il s’agit d’interventions nutritionnelles éducatives priorisant des aliments végétaux minimalement transformés (VMT). Ces interventions promeuvent l’adoption de postures alimentaires se caractérisant par la consommation à volonté d’une grande variété d’aliments d’origine végétale (e.g. légumineuses, céréales entières, fruits, légumes) et par une diminution de la consommation d’aliments d’origine animale (e.g. viandes, œufs et produits laitiers) et ultra-transformés (e.g. riches en sucres, sel ou gras, et faibles en fibres). Objectifs: À l’aide d’un devis mixte concomitant imbriqué, nous avons évalué les effets d’un programme d’interventions éducatives visant à augmenter la consommation de VMT chez des adultes à risque de MCV et exploré les déterminants des modifications comportementales observées. Méthodologie : Divers paramètres physiologiques et anthropométriques ont été mesurés pré-post programme (n = 72) puis analysés avec un test t pour échantillons appariés ou un test signé des rangs de Wilcoxon. D’autre part, 10 entretiens semi-dirigés ont été réalisés post-programme et soutenus par un guide d’entretien basé sur le Food Choice Process Model. Les verbatims intégraux ont été codés selon la méthode d’analyse thématique. Résultats : Après 12 semaines, le poids (-10,5 lb, IC 95 %: 9,0-12,0), le tour de taille (-7,4 cm, IC 95 %:6,5-8,4), la tension artérielle diastolique (-3,2 mmHg, IC 95 %: 0,1-6,3), le cholestérol total (-0,87 mmol/ L, IC 95 %:0,57-1,17), le cholestérol LDL (-0,84 mmol/ L, IC 95 %: 0,55-1,13) et l’hémoglobine glyquée (-1,32 %, IC 95 %:-0,17-2,80) se sont significativement améliorés. L’analyse thématique des données qualitatives révèle que le programme, par la stimulation de valeurs de santé, d’éthique et d’intégrité, favorise la transformation des choix alimentaires vers une posture davantage axée sur les VMT durant une période clé du parcours de vie (i.e. pré-retraite). D’autres déterminants pouvant favoriser l’adoption d’une alimentation VMT ont été identifiés, dont les bénéfices importants observables à court terme, l’absence de restriction à l’égard de la quantité d’aliments VMT et le développement de compétences de planification dans l’acquisition et la préparation des aliments. Conclusion : Une intervention priorisant les VMT permet d’améliorer le profil cardiométabolique d’individus pré-retraités en raison de ses caractéristiques intrinsèques, mais aussi parce qu’elle modifie les valeurs impliquées dans les choix alimentaires.
Resumo:
Abstract : Recently, there is a great interest to study the flow characteristics of suspensions in different environmental and industrial applications, such as snow avalanches, debris flows, hydrotransport systems, and material casting processes. Regarding rheological aspects, the majority of these suspensions, such as fresh concrete, behave mostly as non-Newtonian fluids. Concrete is the most widely used construction material in the world. Due to the limitations that exist in terms of workability and formwork filling abilities of normal concrete, a new class of concrete that is able to flow under its own weight, especially through narrow gaps in the congested areas of the formwork was developed. Accordingly, self-consolidating concrete (SCC) is a novel construction material that is gaining market acceptance in various applications. Higher fluidity characteristics of SCC enable it to be used in a number of special applications, such as densely reinforced sections. However, higher flowability of SCC makes it more sensitive to segregation of coarse particles during flow (i.e., dynamic segregation) and thereafter at rest (i.e., static segregation). Dynamic segregation can increase when SCC flows over a long distance or in the presence of obstacles. Therefore, there is always a need to establish a trade-off between the flowability, passing ability, and stability properties of SCC suspensions. This should be taken into consideration to design the casting process and the mixture proportioning of SCC. This is called “workability design” of SCC. An efficient and non-expensive workability design approach consists of the prediction and optimization of the workability of the concrete mixtures for the selected construction processes, such as transportation, pumping, casting, compaction, and finishing. Indeed, the mixture proportioning of SCC should ensure the construction quality demands, such as demanded levels of flowability, passing ability, filling ability, and stability (dynamic and static). This is necessary to develop some theoretical tools to assess under what conditions the construction quality demands are satisfied. Accordingly, this thesis is dedicated to carry out analytical and numerical simulations to predict flow performance of SCC under different casting processes, such as pumping and tremie applications, or casting using buckets. The L-Box and T-Box set-ups can evaluate flow performance properties of SCC (e.g., flowability, passing ability, filling ability, shear-induced and gravitational dynamic segregation) in casting process of wall and beam elements. The specific objective of the study consists of relating numerical results of flow simulation of SCC in L-Box and T-Box test set-ups, reported in this thesis, to the flow performance properties of SCC during casting. Accordingly, the SCC is modeled as a heterogeneous material. Furthermore, an analytical model is proposed to predict flow performance of SCC in L-Box set-up using the Dam Break Theory. On the other hand, results of the numerical simulation of SCC casting in a reinforced beam are verified by experimental free surface profiles. The results of numerical simulations of SCC casting (modeled as a single homogeneous fluid), are used to determine the critical zones corresponding to the higher risks of segregation and blocking. The effects of rheological parameters, density, particle contents, distribution of reinforcing bars, and particle-bar interactions on flow performance of SCC are evaluated using CFD simulations of SCC flow in L-Box and T-box test set-ups (modeled as a heterogeneous material). Two new approaches are proposed to classify the SCC mixtures based on filling ability and performability properties, as a contribution of flowability, passing ability, and dynamic stability of SCC.
Resumo:
La révision des programmes d'études collégiaux, qui doivent dorénavant s'inscrire dans une approche par compétences, a donné lieu à des remises en question, tant au niveau des contenus de programme que des méthodes pédagogiques. C'est dans la foulée de cette réflexion, qu'en 2001, les enseignantes et enseignants du programme Soins infirmiers du cégep du Vieux Montréal, de concert avec leurs collègues des disciplines contributives de biologie, psychologie et sociologie, ont opté pour l'apprentissage par problèmes comme méthode pédagogique pour l'enseignement des connaissances déclaratives. Dans cette approche, comme son nom l'indique, l'apprentissage se réalise autour de problèmes que les étudiantes et étudiants doivent résoudre en recourant à la fois au travail de groupe et au travail individuel.
Resumo:
The Fourier transform-infrared (FT-IR) signature of dry samples of DNA and DNA-polypeptide complexes, as studied by IR microspectroscopy using a diamond attenuated total reflection (ATR) objective, has revealed important discriminatory characteristics relative to the PO2(-) vibrational stretchings. However, DNA IR marks that provide information on the sample's richness in hydrogen bonds have not been resolved in the spectral profiles obtained with this objective. Here we investigated the performance of an all reflecting objective (ARO) for analysis of the FT-IR signal of hydrogen bonds in DNA samples differing in base richness types (salmon testis vs calf thymus). The results obtained using the ARO indicate prominent band peaks at the spectral region representative of the vibration of nitrogenous base hydrogen bonds and of NH and NH2 groups. The band areas at this spectral region differ in agreement with the DNA base richness type when using the ARO. A peak assigned to adenine was more evident in the AT-rich salmon DNA using either the ARO or the ATR objective. It is concluded that, for the discrimination of DNA IR hydrogen bond vibrations associated with varying base type proportions, the use of an ARO is recommended.
Resumo:
The goal of this cross-sectional observational study was to quantify the pattern-shift visual evoked potentials (VEP) and the thickness as well as the volume of retinal layers using optical coherence tomography (OCT) across a cohort of Parkinson's disease (PD) patients and age-matched controls. Forty-three PD patients and 38 controls were enrolled. All participants underwent a detailed neurological and ophthalmologic evaluation. Idiopathic PD cases were included. Cases with glaucoma or increased intra-ocular pressure were excluded. Patients were assessed by VEP and high-resolution Fourier-domain OCT, which quantified the inner and outer thicknesses of the retinal layers. VEP latencies and the thicknesses of the retinal layers were the main outcome measures. The mean age, with standard deviation (SD), of the PD patients and controls were 63.1 (7.5) and 62.4 (7.2) years, respectively. The patients were predominantly in the initial Hoehn-Yahr (HY) disease stages (34.8% in stage 1 or 1.5, and 55.8 % in stage 2). The VEP latencies and the thicknesses as well as the volumes of the retinal inner and outer layers of the groups were similar. A negative correlation between the retinal thickness and the age was noted in both groups. The thickness of the retinal nerve fibre layer (RNFL) was 102.7 μm in PD patients vs. 104.2 μm in controls. The thicknesses of retinal layers, VEP, and RNFL of PD patients were similar to those of the controls. Despite the use of a representative cohort of PD patients and high-resolution OCT in this study, further studies are required to establish the validity of using OCT and VEP measurements as the anatomic and functional biomarkers for the evaluation of retinal and visual pathways in PD patients.
Resumo:
In this work, the energy response functions of a CdTe detector were obtained by Monte Carlo (MC) simulation in the energy range from 5 to 160keV, using the PENELOPE code. In the response calculations the carrier transport features and the detector resolution were included. The computed energy response function was validated through comparison with experimental results obtained with (241)Am and (152)Eu sources. In order to investigate the influence of the correction by the detector response at diagnostic energy range, x-ray spectra were measured using a CdTe detector (model XR-100T, Amptek), and then corrected by the energy response of the detector using the stripping procedure. Results showed that the CdTe exhibits good energy response at low energies (below 40keV), showing only small distortions on the measured spectra. For energies below about 80keV, the contribution of the escape of Cd- and Te-K x-rays produce significant distortions on the measured x-ray spectra. For higher energies, the most important correction is the detector efficiency and the carrier trapping effects. The results showed that, after correction by the energy response, the measured spectra are in good agreement with those provided by a theoretical model of the literature. Finally, our results showed that the detailed knowledge of the response function and a proper correction procedure are fundamental for achieving more accurate spectra from which quality parameters (i.e., half-value layer and homogeneity coefficient) can be determined.
Resumo:
This work approaches the forced air cooling of strawberry by numerical simulation. The mathematical model that was used describes the process of heat transfer, based on the Fourier's law, in spherical coordinates and simplified to describe the one-dimensional process. For the resolution of the equation expressed for the mathematical model, an algorithm was developed based on the explicit scheme of the numerical method of the finite differences and implemented in the scientific computation program MATLAB 6.1. The validation of the mathematical model was made by the comparison between theoretical and experimental data, where strawberries had been cooled with forced air. The results showed to be possible the determination of the convective heat transfer coefficient by fitting the numerical and experimental data. The methodology of the numerical simulations was showed like a promising tool in the support of the decision to use or to develop equipment in the area of cooling process with forced air of spherical fruits.
Resumo:
Universidade Estadual de Campinas. Faculdade de Educação Física