984 resultados para PIC microcontroller
Resumo:
La perméthrine fait partie de la famille des pyréthrinoïdes qui sont abondamment utilisés en agriculture. Le but de cette étude était d'obtenir des données sur la cinétique des biomarqueurs d'exposition à la perméthrine en condition réelle d'exposition chez les travailleurs agricoles. Douze travailleurs (un applicateur, un superviseur et dix cueilleurs) exposés à la perméthrine dans le cadre de leur emploi ont été recrutés dans une ferme maraichère de la Montérégie (Québec). Ils ont fourni toutes leurs urines sur une période de trois jours suivant le début des travaux dans un champ traité. Les trois principaux métabolites de la perméthrine, l'acide cis-/trans-3-(2,2-dichlorovinyle)-2,2-diméthylecyclopropane carboxylique (cis-/trans-DCCA) et l'acide 3-phénoxybenzoïque (3-PBA) ont été analysés par chromatographie liquide à ultra-haute performance couplée à la spectrométrie de masse à temps de vol. Pour l'applicateur, une augmentation progressive des valeurs d'excrétion a été observée avec un pic unique atteint environ 30 h après le début de l'exposition d'une durée de 3,5 h suivi d'une élimination avec une demi-vie de 8 h. Pour le superviseur et l'un des cueilleurs, les profils d'excrétion de trans-DCCA et de 3-PBA étaient compatibles avec de multiples entrées dans la zone traitée pendant la période d'échantillonnage accompagné d'une élimination rapide entre les épisodes d'exposition.L'applicateur aurait été exposé indirectement par contact main-bouche, alors que les autres travailleurs auraient été exposés par la voie cutanée. Pour une surveillance biologique adéquate, nous recommandons de mesurer deux biomarqueurs de la perméthrine, soit le trans-DCCA et le 3-PBA et de prendre un minimum de trois échantillons urinaires, un avant et deux pendant ou suivant la période d'exposition.
Resumo:
Introduction : Une augmentation de la plasticité cérébrale est susceptible d’être impliquée dans la réallocation des régions corticales et dans les nombreuses altérations microstructurelles observées en autisme. Considérant les nombreux résultats démontrant un surfonctionnement perceptif et un fonctionnement moteur atypique en autisme, l’augmentation de la plasticité cérébrale suggère une plus grande variabilité individuelle de l’allocation fonctionnelle chez cette population, plus spécifiquement dans les régions perceptives et motrices. Méthode : Afin de tester cette hypothèse, 23 participants autistes de haut-niveau et 22 non-autistes appariés pour l’âge, le quotient intellectuel, les résultats au test des Matrices de Raven et la latéralité, ont réalisé une tâche d’imitation visuo-motrice dans un appareil d’imagerie par résonnance magnétique fonctionnelle (IRMf). Pour chaque participant, les coordonnées du pic d’activation le plus élevé ont été extraites des aires motrices primaires (Aire de Brodmann 4 (BA4)) et supplémentaires (BA6), du cortex visuo-moteur pariétal supérieur (BA7) ainsi que des aires visuelles primaires (BA17) et associatives (BA18+19) des deux hémisphères. L’étendue des activations, mesurée en fonction du nombre de voxels activés, et la différence d’intensité des activations, calculée en fonction du changement moyen d’intensité du signal ont également été considérées. Pour chaque région d’intérêt et hémisphère, la distance entre la localisation de l’activation maximale de chaque participant par rapport à celle de la moyenne de son groupe a servi de variable d’intérêt. Les moyennes de ces distances individuelles obtenues pour chaque groupe et chacune des régions d’intérêt ont ensuite été soumises à une ANOVA à mesures répétées afin de déterminer s’il existait des différences de variabilité dans la localisation des activations entre les groupes. Enfin, l’activation fonctionnelle générale à l’intérieur de chaque groupe et entre les groupes a également été étudiée. Résultats : Les résultats démontrent qu’une augmentation de la variabilité individuelle en terme de localisation des activations s’est produite à l’intérieur des deux groupes dans les aires associatives motrices et visuelles comparativement aux aires primaires associées. Néanmoins, malgré le fait que cette augmentation de variabilité dans les aires associatives soit partagée, une comparaison directe de celle-ci entre les groupes a démontré que les autistes présentaient une plus grande variabilité de la localisation des activations fonctionnelles dans le cortex visuo-moteur pariétal supérieur (BA7) et les aires associatives visuelles (BA18+19) de l’hémisphère gauche. Conclusion : Des stratégies différentes et possiblement uniques pour chaque individu semblent être observées en autisme. L’augmentation de la variabilité individuelle de la localisation des activations fonctionnelles retrouvée chez les autistes dans les aires associatives, où l’on observe également davantage de variabilité chez les non-autistes, suggère qu’une augmentation et/ou une altération des mécanismes de plasticité est impliquée dans l’autisme.
Resumo:
Depuis la découverte d’archées capables d’oxyder l’ammoniac en milieu aérobie, de nombreuses études ont mesuré en simultané les taux de nitrification et la diversité des organismes oxydant l’ammoniac dans la colonne d’eau des milieux marins. Malgré l’importance globale des lacs d’eau douce, beaucoup moins d’études ont fait la même chose dans ces milieux. Dans cette étude, nous avons évalué l’importance de la nitrification et caractérisé la communauté microbienne responsable de la première étape limitante de la nitrification dans un lac tempéré durant une année entière. L’utilisation de traceur isotopique 15NH4 nous a permis de mesurer des taux d’oxydation d’ammoniac à deux profondeurs dans la zone photique tout au long de l’année. Les taux d’oxydation d’ammoniac varient de non détectable à 333 nmol L-1 j-1 avec un pic d’activité sous la glace. De toutes les variables environnementales mesurées, la concentration d’ammonium dans la colonne d’eau semble avoir le plus grand contrôle sur les taux d’oxydation d’ammoniac. Nous avons détecté la présence d’archées (AOA) et de bactéries oxydante d’ammoniac (BOA) à l’aide de tests par réaction en chaîne de la polymérase (PCR) ciblant une partie du gène ammoniac monoxygénase (amoA). Les AOA et les BOA ont été détectées dans la zone photique du lac, cependant seules les AOA étaient omniprésentes durant l’année. Le séquençage du gène amoA des archées révèle que la majorité des AOA dans le lac sont membres du groupe phylogénétique Nitrosotalea (également appelé SAGMGC-1 ou groupe I.1a associé), ce qui confirme la pertinence écologique de ce groupe dans les eaux douces oligotrophes. Globalement, nos résultats indiquent l’hiver comme étant un moment propice pour l’oxydation de l’ammoniac dans les lacs tempérés. Cette étude fournit un point de référence pour la compréhension du processus d’oxydation de l’ammoniac dans les petits lacs oligotrophes.
Resumo:
Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.
Resumo:
Des études antérieures ont indiqué que l’IL-27 supprime le développement de l’encéphalomyélite auto-immune expérimentale (EAE), un modèle murin de la sclérose en plaques (SEP). L’expression en ARNm d’IL-27 est maximale au pic du développement de l’EAE. Cependant, sa contribution dans la pathogenèse de la SEP demeure irrésolue. Nous avons investigué si l’IL-27 contribue à moduler les réponses immunes dans le système nerveux central (SNC) de patients SEP. Nos résultats d’immunohistochimie sur échantillons post-mortem de cerveaux humains ont révélé que la production des deux sous-unités d’IL-27 (EBI-3 et p28) est plus élevée chez des patients comparés à des contrôles. De plus, les astrocytes (GFAP) et les microglies/macrophages (Iba1) représentent des sources biologiques importantes de l’IL-27 dans les lésions. Les lymphocytes T CD4 et CD8 qui infiltrent le SNC des patients expriment d’ailleurs le récepteur de l’IL-27 composé des chaînes gp130 et TCCR, supportant le concept que ces cellules pourraient répondre aux sources locales d’IL-27. Nous avons également démontré que des combinaisons de cytokines pro-inflammatoires (IFNγ, IL-1β et TNF) augmentent l’expression in vitro d’IL-27 par les astrocytes et macrophages humains, et que les microglies/macrophages de phénotype M1 produisent l’IL-27. Enfin, nous avons démontré que les astrocytes humains expriment aussi le récepteur à l’IL-27 et répondent à l’IL-27 par la phosphorylation de STAT1, mais pas de STAT3. Une telle signalisation dans ces cellules mène à l’augmentation d’expression de la molécule de co-inhibition PD-L1 et de la sécrétion de la chimiokine CXCL10.
Resumo:
Introduction : La croissance maxillo-mandibulaire des enfants avec une séquence de Pierre Robin (SPR) est controversée dans la littérature. Certains auteurs croient que la croissance mandibulaire est accélérée après la naissance, mais peu se sont penchés sur la croissance du maxillaire supérieur. Cette étude rétrospective sur dossier vise à analyser la croissance maxillo-mandibulaire des enfants atteints de la SPR. Dans un deuxième temps, nous aurions aimé évaluer la sévérité et l’évolution de l’apnée du sommeil en lien avec la croissance des maxillaires, mais un manque de données a empêché l’atteinte de cet objectif. Matériel et méthode : Les dossiers médicaux et orthodontiques de 93 patients (82 volet apnée et 40 volet croissance) du CHU Ste-Justine avec une SPR isolée ont été révisés puis comparés au groupe contrôle composé d’enfants normaux de l’Université du Michigan. L’analyse statistique de modèle mixte pour mesures répétées de même que celle de Brunner-Langer furent effectuées. Résultats : L’évaluation orthodontique a montré un changement statistiquement significatif pour la relation molaire droite, la présence de chevauchement et de diastème au maxillaire et le surplomb vertical. L’analyse des données céphalométriques nous montre que le maxillaire supérieur, la branche montante et le corps de la mandibule sont tous réduits par rapport à la normale. Ce dernier montre une diminution significative avec l’âge (p = 0,03). L’angle gonial, le SNA, SNB, ANB, l’angle de convexité faciale et l’inclinaison de l’incisive supérieure par rapport à FH sont tous normaux. Par contre, on remarque une augmentation statistiquement significative de cette dernière avec l’âge (p = 0,04). L’angle Y est augmenté tandis que les hauteurs faciales supérieure (HFS) et inférieure (HFI) sont diminuées bien que cette dernière montre une tendance à s’approcher de la normale avec l’âge (p ≤ 0,001). Discussion : Les dimensions des maxillaires sont similaires à plusieurs études. En ce qui concerne la mandibule, la croissance est soit plus lente, soit diminuée. Cette observation est plus marquée lorsque l’on s’approche du pic de croissance puisque l’écart par rapport à la normale s’agrandit. On voit une tendance à la croissance hyperdivergente qui pourrait expliquer l’augmentation de la HFI avec l’âge. Le fait que SNA et SNB soient dans la normale pourrait s’expliquer par une diminution de la longueur de la base crânienne. Conclusion : Il n’y a pas de rattrapage de croissance maxillaire et mandibulaire. Les maxillaires restent micrognathes quoique proportionnels l’un envers l’autre et le profil est convexe tout au long de la croissance. La comparaison des données céphalométriques et des traitements orthodontiques avec ceux des patients présentant une fente palatine isolée devrait se faire sous peu. Nous n’avons pas été en mesure d’atteindre nos objectifs concernant l’apnée du sommeil. Une étude prospective serait à prévoir pour y arriver.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
L’évolution d’une cellule tumorale initiée à une tumeur solide nécessite, à chaque étape, un microenvironnement favorable à sa survie et à sa croissance. Le microenvironnement tumoral est comparé à un foyer d’inflammation chronique dont la composition cellulaire et moléculaire est complexe. Les cellules souches mésenchymateuses (CSM) représentent l’un des principaux acteurs cellulaires présents. Elles migrent vers les sites tumoraux où elles soutiennent l’inflammation, l’angiogenèse et le développement tumoral en activant plusieurs voies de signalisation. Une des voies majeures qui contribuent à l’inflammation est la voie de signalisation NF-B. L’initiation de cette voie provient de la membrane cellulaire entre autres des cavéoles. Nous soumettons l’hypothèse que l’une des cavines, protéines associées aux cavéoles, modulerait le phénotype inflammatoire etou migratoire dans les CSM traitées à la cytokine TNF- (facteur de nécrose tumorale ) en modulant la voie de signalisation NF-B. En effet, nous avons observé une régulation à la hausse de l’expression de la COX-2 (cyclooxygénase-2) et une diminution de l’expression d’IκB qui sont synonymes de l’activation de la voie NF-B dans les CSM que nous avons traitées au TNF-. Nous avons trouvé que le TNF- induit la migration des CSM, et que la répression génique de la Cavine-2 augmente significativement la migration des CSM traitées par le TNF-. La répression génique de la Cavine-2 vient aussi amplifier la tubulogenèse dans les CSM en réponse au TNF-. D’un point de vue moléculaire, la répression génique de la Cavine-2 a montré une très forte amplification de l'expression protéique de la COX-2 dans les CSM en réponse au TNF-. Dans ces mêmes cellules où la Cavine-2 a été réprimée, et suite à un traitement au TNF-, le pic de phosphorylation est plus intense et la courbe de phosphorylation est plus prolongée dans le temps. Ces observations nous permettent d’affirmer que la Cavine-2 a un rôle répresseur sur l’expression de COX-2. Collectivement, nos résultats montrent que la Cavine-2 peut être proposée comme un gène suppresseur de tumeur et est de ce fait, une bonne cible thérapeutique dans les CSM qui permettraient d’agir à des stades précoces du développement tumoral.
Resumo:
Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.
Resumo:
Bank switching in embedded processors having partitioned memory architecture results in code size as well as run time overhead. An algorithm and its application to assist the compiler in eliminating the redundant bank switching codes introduced and deciding the optimum data allocation to banked memory is presented in this work. A relation matrix formed for the memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Data allocation to memory is done by considering all possible permutation of memory banks and combination of data. The compiler output corresponding to each data mapping scheme is subjected to a static machine code analysis which identifies the one with minimum number of bank switching codes. Even though the method is compiler independent, the algorithm utilizes certain architectural features of the target processor. A prototype based on PIC 16F87X microcontrollers is described. This method scales well into larger number of memory blocks and other architectures so that high performance compilers can integrate this technique for efficient code generation. The technique is illustrated with an example
Resumo:
Unidad did??ctica surgida como consecuencia de las pr??cticas realizadas por los grupos de trabajo de profesores sobre el tema del agua, configur??ndose ??ste como un concepto que encierra una gran generalizaci??n y sobre el que existe una creciente problem??tica en la Regi??n de Murcia. En esta unidad se sugieren claramente la metodolog??a a seguir, los supuestos te??ricos en los que se basa, los objetivos y contenidos, as?? como la planificaci??n de la actividad y diversas orientaciones did??cticas y la evaluaci??n. Todo ello est?? acompa??ado de documentos-gu??a para las actividades de los alumnos. Contiene una gran virtualidad para afrontar la mayor parte de los objetivos generales planteados para la etapa de Educaci??n Secundaria Obligatoria.
Resumo:
Babies are born with simple manipulation capabilities such as reflexes to perceived stimuli. Initial discoveries by babies are accidental until they become coordinated and curious enough to actively investigate their surroundings. This thesis explores the development of such primitive learning systems using an embodied light-weight hand with three fingers and a thumb. It is self-contained having four motors and 36 exteroceptor and proprioceptor sensors controlled by an on-palm microcontroller. Primitive manipulation is learned from sensory inputs using competitive learning, back-propagation algorithm and reinforcement learning strategies. This hand will be used for a humanoid being developed at the MIT Artificial Intelligence Laboratory.
Resumo:
El braç robot es va crear com a resposta a una necessitat de fabricació d’elements mitjançant la producció en cadena i en tasques que necessiten precisió. Hi ha, però, altres tipus de tasques les quals no són repetitives, ni poden ésser programades, que necessiten però ser controlades en tot moment per un ésser humà. Són activitats que han d’estar realitzades per un ésser humà, però que requereixen molta precisió, és per això que es creu necessari el disseny d’un prototipus de control d’un braç robot estàndard, que permeti a una persona el control total sobre aquest en temps real per a la realització d’una tasca no repetitiva i no programable prèviament. Pretenem, en el present projecte, dissenyar i construir un braç robot de 5 graus de llibertat, controlat des d’un PC mitjançant un microcontrolador PIC amb comunicació a través d’un bus USB. El robot serà governat des d’un PC a través d’un software de control específic
Resumo:
Conocer y comprender el desarrollo profesional de una maestra novel, respecto de la enseñanza de las matemáticas, que está inmersa en un Proyecto de Investigación Colaborativa (PIC), y que elementos toma como referencia y apoyo a su labor. Se trata de un estudio de caso, único, porque permite comprender en profundidad una realidad singular. Se ha adoptado un enfoque cualitativo para el análisis de datos, aunque en el caso de las interacciones se ha apoyado en aspectos cuantitativos. Respecto a la recogida de información, utiliza una gran variedad de técnicas e instrumentos en dos de los contextos en los que la maestra se desarrolla: el aula y el PIC. Destaca el cuestionario de desarrollo profesional, diarios del profesor, entrevistas previas y posteriores a las unidades didácticas como sustitutas de los diarios, imágenes previas de la lección en formato escrito y mediante entrevistas, observaciones de aula y registro en audio de las sesiones del PIC. Los datos se analizan desde varias perspectivas según su origen; así, por ejemplo, el análisis de las observaciones de aula y el de los diarios del profesor se realiza a través de una interpretación de significados recontextualizando las contribuciones de la maestra dentro de marcos más amplios de referencia. En el caso del análisis de las interacciones en el PIC, se desarrolla un instrumento específico, al que se denomina IMDEP, y que se trata de justificar teóricamente. Se cuestiona el desarrollo profesional de una maestra novel, por un lado, si un maestro novel está preparado para reflexionar sobre su práctica de manera potente (que le lleve a introducir cambios) y, por otro lado, en qué sentido la reflexión llevada a cabo en un contexto colaborativo influye en su desarrollo profesional y qué aporta el grupo a su reflexión individual. Algunas de ellas son: la importancia de manejar con soltura los conocimientos matemáticos, los problemas encontrados en su práctica docente, la manera en que le corresponde alterar (o no) el orden o contenido del currículo o la crítica a los contenidos y ejercicios propuestos en los libros de texto. Se observa que las reflexiones permiten a la maestra advertir sus carencias en el conocimiento matemático. Conforme va supliendo dichas carencias, la profesora adquiere una creciente capacidad para relacionar los contenidos del currículo entre sí y para decidir cuándo conviene ampliar o recortar los ejercicios y temas propuestos en el libro de texto. Asimismo, su mejor comprensión del conocimiento matemático le ayuda a mejorar la comprensión que los alumnos tienen de sus explicaciones. Finalmente, se destaca su condición de maestra novel, no se puede decir que ésta sea por sí misma un elemento obstaculizador del desarrollo profesional pero se considera que sí podría serlo en este caso. Como maestra novel, se destaca que en este primer año principalmente se mueve a través del ensayo y error, aprendiendo a base de éxitos y fracasos de su experiencia. No obstante, no cabe duda de que la maestra cuenta con un referente de peso que es el de su madre, es decir, como ésta había enfocado la enseñanza de las matemáticas, las rutinas que ésta había desarrollado y los recursos que utilizaba. Este referente podría haberse constituido en una fuente importante donde buscar recursos para solucionar los problemas de su práctica, porque encuentra en ella un gran respaldo.
Resumo:
Los incendios forestales son uno de los principales problemas a los que se enfrentan nuestros bosques. Aunque la mejor manera de combatirlos es la prevención, una vez se ha iniciado el fuego se hace imprescindible una óptima planificación para su extinción. En este trabajo se presenta una aplicación que se centra en la simulación del comportamiento del fuego y en su visualización 3D, para un posterior estudio por parte del personal encargado de la planificación de la extinción. La aplicación está basada en librerías de software libre, como el FBSDK (comportamiento del fuego en función de la orografía del terreno, el tipo de combustible y el viento), la librería de visualización de terrenos Virtual Terrain Project y la base de datos PostGIS para guardar los datos calculados. Como datos de entrada de la aplicación tenemos el terreno en 3D (para su visualización y el cálculo de la orografía), la cantidad y tipo de vegetación y el punto (o puntos) donde se inicia el fuego. La salida del programa será una animación 3D (en tiempo real o en tiempo acelerado) para la visualización del comportamiento del fuego y la exportación de los resultados a una base de datos PostGIS, permitiendo su almacenamiento en el formato abierto OpenGIS. El carácter público de las instituciones responsables de la prevención y lucha contra incendios, refuerzan la idoneidad en la utilización de herramientas basadas en software libre