949 resultados para Sparse arrays
Resumo:
Les alcaloïdes Daphniphyllum constituent une vaste famille de produits naturels isolés à partir de plantes à feuillage persistant couramment utilisés dans la médecine chinoise traditionnelle. Ils affichent une gamme impressionnante d'activités biologiques; antipyrétique, anti-inflammatoire, antioxydant et même anticancéreux. La calyciphylline B appartient à cette famille et possède un motif original comprenant sept stéréocentres adjacents, dont un stéréocentre quaternaire tout carbone, avec un échafaudage hexacyclique. Sa structure a été déterminée par données spectroscopiques, plus précisément par des techniques de RMN 2D. Malgré le peu d'information sur son activité biologique, sa synthèse représente sans le moindre doute un grand défi pour les chimistes organiciens. Le groupe de recherche du Prof. Hanessian a entrepris la synthèse totale de la calyciphylline B en 2010, laquelle est toujours en cours. Une nouvelle approche a été développée pour la préparation d'un intermédiaire azabicyclo[3.3.0]octane avancé. Ce mémoire résume les travaux de recherche de l'auteur sur les progrès réalisés pour la voie alternative élaborée par le groupe du prof. Hanessian. Le travail effectué comprend la formation d'un stéréocentre quaternaire, l'alkylation d'un énolate sur un triflate d'alkyle secondaire, une réduction diastéréosélective, une cyclisation réductrice ainsi qu'une oxydation de Wacker régiosélective.
Resumo:
Si au cours des dernières décennies les connaissances relatives aux délinquantes sexuelles se sont accrues, celles relatives aux co-délinquantes sont encore rares, alors que ces femmes représentent une part importante du total des délinquantes sexuelles. Le but de la présente étude était de mettre en lumière les trajectoires de vie des femmes qui agressent en compagnie de leur conjoint et de dresser un modèle descriptif du processus de leur passage à l’acte. Sur la base de 17 entretiens non directifs avec des femmes incarcérées en France pour des faits de co-délinquance sexuelle, notre recherche suggère que les co-délinquantes présentent majoritairement un historique de vie abusif et des difficultés émotionnelles, relationnelles, économiques et éducatives importantes. Ces facteurs de vulnérabilité ont été acquis au cours de leur enfance et par leurs expériences sentimentales négatives et abusives. Un modèle descriptif de leur passage à l’acte en trois phases a été établi. Il est apparu que la délinquance sexuelle des co-délinquantes se modifiait au fil des agressions, tant dans leur implication dans les abus qu’au niveau de leur coercition. Les données ont aussi révélé un nombre non négligeable de femmes qui agressent ensuite par elles-mêmes. Ces constatations nous ont amenés à une classification en trois catégories des femmes qui agressent sexuellement : les femmes asservies, les femmes impliquées et les femmes diversifiées.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Au cours des 30 dernières années, l’embonpoint et l’obésité infantile sont devenus de véritables défis pour la santé publique. Bien que l’obésité soit, à la base, un problème physiologique (i.e. balance calorique positive) une série de facteurs psychosociaux sont reliés à son développement. Dans cette thèse, nous avons étudié le rôle des facteurs périnataux et de la petite enfance dans le développement du surpoids, ainsi que la relation entre le surpoids et les troubles internalisés au cours de l’enfance et au début de l’adolescence. Nous avions trois objectifs généraux: 1) Modéliser le développement de l’indice de masse corporelle (IMC) ou du statut pondéral (le fait d’être en surpoids ou non) durant l’enfance, ainsi qu’estimer l’hétérogénéité dans la population au cours du temps (i.e. identification de trajectoires développementales de l’IMC). 2) Identifier les facteurs périnataux et de la petite enfance pouvant accroitre le risque qu’un enfant suive une trajectoire menant au surpoids adolescente. 3) Tester la possibilité que le surpoids durant l’enfance soit associé avec des problèmes de santé mentale internalisés à l’adolescence, et vérifier la possibilité qu’une telle association soit médiatisée par l’expérience de victimisation par les pairs et l’insatisfaction corporelle. Ce travail est mené dans une perspective de développement au cours de la vie (life span perspective), considérant l’accumulation des facteurs de risques au cours du temps ainsi que les facteurs qui se manifestent durant certaines périodes critiques de développement.1,2 Nous avons utilisé les données provenant de l’Étude Longitudinale du Développement des Enfants du Québec (ELDEQ), une cohorte de naissances de la province de Québec, Canada. L’échantillon initial était composé de 2120 familles avec un bébé de 5 mois nés au Québec en 1997. Ces familles ont été suivies annuellement ou à tous les deux ans jusqu’à ce que les enfants atteignent l’âge de 13 ans. En ce qui concerne le premier objectif de recherche, nous avons utilisé la méthode des trajectoires développementales fondée sur des groupes pour modéliser l’IMC en continu et en catégories (surpoids vs poids normal). Pour notre deuxième objectif, nous avons effectué des modèles de régression multinomiale afin d’identifier les facteurs périnataux et de la petite enfance associés aux différents groupes développementaux du statut pondéral. Les facteurs de risques putatifs ont été choisis parmi les facteurs identifiés dans la littérature et représentent l’environnement périnatal, les caractéristiques de l’enfant, ainsi que l’environnement familial. Ces facteurs ont été analysés longitudinalement dans la mesure du possible, et les facteurs pouvant servir de levier potentiel d’intervention, tels que l’usage de tabac chez la mère durant la grossesse, le sommeil de l’enfant ou le temps d’écoute de télévision, ont été sélectionnés pour l’analyse. Pour notre troisième objectif, nous avons examiné les associations longitudinales (de 6 à 12 ans) entre les scores-z d’IMC (selon la référence CDC 2000) et les problèmes internalisés avec les modèles d’équations structurales de type « cross-lagged ». Nous avons ensuite examiné comment la victimisation par les pairs et l’insatisfaction corporelle durant l’enfance peuvent médiatiser un lien potentiel entre le surpoids et les troubles internalisés au début de l’adolescence. Les contributions scientifiques de la présente thèse incluent l’identification de trajectoires distinctes du statut pondérale durant l’enfance (précoce, tardive, jamais en surpoids), ainsi que les facteurs de risques précoces et les profils de santé mentale pouvant différer selon la trajectoire d’un enfant. De plus, nous avons identifié des mécanismes importants qui expliquent une partie de l’association entre les trajectoires de surpoids et les troubles internalisés: la victimisation par les pairs et l’insatisfaction corporelle.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Le sanctuaire Agoa est une aire marine protégée dans la zone économique exclusive (ZEE) des Antilles françaises qui fut créée en 2010 pour la conservation des mammifères marins et de leurs habitats. Il est connu que le rorqual à bosse fréquente les eaux des Antilles de décembre à mai pour la reproduction et la mise bas. Par contre, peu d’information existe sur l’abondance, le comportement, la distribution et les pressions anthropiques sur cette espèce aux Antilles et encore moins dans le sanctuaire. Cette maîtrise s’intéresse principalement à connaître cette espèce dans un secteur précis de cette aire marine et les liens qu’elle entretient avec certains utilisateurs humains de son habitat. Le tout vise à informer les intervenants en place, autant institutionnels qu’utilisateurs, vers une mise en place de mesures de conservation adaptées. Un suivi terrestre hivernal de plus de 300 heures, en 2012 et 2013, a permis de déterminer l’utilisation de l’habitat et les pressions anthropiques sur une population de rorquals à bosse fréquentant le sud de la péninsule de la Pointe-des-Châteaux en Guadeloupe. Il s’agit du premier suivi terrestre de cette espèce aux Antilles françaises et un des premiers dans l'arc caribéen. La zone d’étude couvre environ 264 km2 et serait une des zones les plus fréquentées de l’archipel guadeloupéen par l’espèce. À l’aide d’un théodolite, la trajectoire de 107 groupes différents (137,8 heures, 699 remontées) a été décrite. Les résultats montrent que la zone d’étude est principalement fréquentée en mars et avril, avec une abondance maximale au début du mois d’avril. La forte présence de baleineaux, particulièrement au mois de mars, pousse à croire que cette zone est utilisée comme pouponnière. Le comportement n’est pas aléatoire dans la zone d’étude et les trajectoires convergent vers certaines zones ayant possiblement un lien avec la bathymétrie. De plus, la zone marine à proximité de la Pointe-des-Châteaux pourrait potentiellement être un lieu de convergence des groupes. Ceux-ci se déplacent à vitesse réduite en direction ENE en général, à l’exception des femelles accompagnées de baleineaux qui prennent une orientation tout autre, c’est-à-dire vers le ONO, et ce à plus grande vitesse. Bien que la pression d’observation soit considérée comme modérée, une forte proportion des remontées se trouve dans les corridors de navigation présents dans la zone d’étude. De plus, le corridor de navigation des navettes entre Saint-François et La Désirade comporte le plus grand risque relatif de collision mortelle. Une réduction de vitesse des embarcations fréquentant le corridor des navettes diminuerait significativement le risque de collision mortelle. Ces pistes de réflexion mèneront sans doute à d’autres études plus poussées afin de continuer à en apprendre sur l’écologie de cette espèce fascinante.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Les positions des évènements de recombinaison s’agrègent ensemble, formant des hotspots déterminés en partie par la protéine à évolution rapide PRDM9. En particulier, ces positions de hotspots sont déterminées par le domaine de doigts de zinc (ZnF) de PRDM9 qui reconnait certains motifs d’ADN. Les allèles de PRDM9 contenant le ZnF de type k ont été préalablement associés avec une cohorte de patients affectés par la leucémie aigüe lymphoblastique. Les allèles de PRDM9 sont difficiles à identifier à partir de données de séquençage de nouvelle génération (NGS), en raison de leur nature répétitive. Dans ce projet, nous proposons une méthode permettant la caractérisation d’allèles de PRDM9 à partir de données de NGS, qui identifie le nombre d’allèles contenant un type spécifique de ZnF. Cette méthode est basée sur la corrélation entre les profils représentant le nombre de séquences nucléotidiques uniques à chaque ZnF retrouvés chez les lectures de NGS simulées sans erreur d’une paire d’allèles et chez les lectures d’un échantillon. La validité des prédictions obtenues par notre méthode est confirmée grâce à analyse basée sur les simulations. Nous confirmons également que la méthode peut correctement identifier le génotype d’allèles de PRDM9 qui n’ont pas encore été identifiés. Nous conduisons une analyse préliminaire identifiant le génotype des allèles de PRDM9 contenant un certain type de ZnF dans une cohorte de patients atteints de glioblastomes multiforme pédiatrique, un cancer du cerveau caractérisé par les mutations récurrentes dans le gène codant pour l’histone H3, la cible de l’activité épigénétique de PRDM9. Cette méthode ouvre la possibilité d’identifier des associations entre certains allèles de PRDM9 et d’autres types de cancers pédiatriques, via l’utilisation de bases de données de NGS de cellules tumorales.
Resumo:
A dual-port microstrip antenna with a crescent shaped patch with excellent isolation betwecn the ports has been reportcd [I]. Since circular-sided geometries are inore compact than rectangular oncs, thcy find morc applications in microstrip arrays. The crcscent shaped antenna geometry [ I ] provides greater area rcductioii compared to other circular sided patches for broadband operation [2]. In this Lctter, formulac for calculating thc TM, I and TMZI mode resonant frequencies of this microstrip antenna, obtained by modifying the equations of a standard circular patch [3] are presentcd. Thcorctical results are compared with experimental observations aid the validity of the computation is established.
Resumo:
The main objective of carrying out this investigation is to develop suitable transducer array systems so that underwater pipeline inspection could be carried out in a much better way, a focused beam and electronic steering can reduce inspection time as well. Better results are obtained by optimizing the array parameters. The spacing between the elements is assumed to be half the wavelength so that the interelement interaction is minimum. For NDT applications these arrays are operated at MHz range. The wavelengths become very small in these frequency ranges. Then the size of the array elements becomes very small, requiring hybrid construction techniques for their fabrication. Transducer elements have been fabricated using PVDF as the active, mild steel as the backing and conducting silver preparation as the bonding materials. The transducer is operated in the (3,3) mode. The construction of a high frequency array is comparatively complicated. The interelement spacing between the transducer elements becomes considerably small when high frequencies are considered. It becomes very difficult to construct the transducer manually. The electrode connections to the elements can produce significant loading effect. The array has to be fabricated using hybrid construction techniques. The active materials has to be deposited on a proper substrate and etching techniques are required to fabricate the array. The annular ring, annular cylindrical or other similar structural forms of arrays may also find applications in the near future in treatments were curved contours of the human body are affected.
Resumo:
A genetic algorithm has been used for null steering in phased and adaptive arrays . It has been shown that it is possible to steer the array null s precisely to the required interference directions and to achieve any prescribed null depths . A comparison with the results obtained from the analytic solution shows the advantages of using the genetic algorithm for null steering in linear array patterns
Resumo:
Inter-digital capacitive electrodes working as electric field sensors have been developed for touch panel applications. Evaluation circuits to convert variations in electric fields in such sensors into computer compatible data are commercially available. We report development of an Interdigital capacitive electrode working as a sensitive pressure sensor in the range 0-120 kPa. Essentially it is a touch/proximity sensor converted into a pressure sensor with a suitable elastomer buffer medium acting as the pressure transmitter. The performance of the sensor has been evaluated and reported. Such sensors can be made very economical in comparison to existing pressure sensors. Moreover, they are very convenient to be fabricated into sensor arrays involving a number of sensors for distributed pressure sensing applications such as in biomedical systems.
Resumo:
The thesis entitled Studies on Thermal Structure in the Seas Around India. An attempt is made in this study to document the observed variability of thermal structure, both on seasonal and short-term scales, in the eastern Arabian Sea and southwestern Bay of Bengal, from the spatial and time series data sets from a reasonably strong data base. The present study has certain limitations. The mean temperatures are based on an uneven distribution of data in space and time. Some of the areas, although having a ‘full annual coverage, do not have adequate data for some months. Some portions in the area under study are having data gaps. The consistency and the coherence in the internal wave characteristics could not be examined due to non-availability of adequate data sets. The influence of generating mechanisms; other than winds and tides on the observed internal wave fields could not be ascertained due to lack of data. However, a comprehensive and intensive data collection can overcome these limitations. The deployment of moored buoys with arrays of sensors at different depths at some important locations for about 5 to 10 years can provide intensive and extensive data sets. This strong data base can afford to address the short-term and seasonal variability of thermal field and understand in detail the individual and collective influences of various physical and dynamical mechanisms responsible for such variability.
Resumo:
One of the main challenges in the development of metal-oxide gas sensors is enhancement of selectivity to a particular gas. Currently, two general approaches exist for enhancing the selective properties of sensors. The first one is aimed at preparing a material that is specifically sensitive to one compound and has low or zero cross-sensitivity to other compounds that may be present in the working atmosphere. To do this, the optimal temperature, doping elements, and their concentrations are investigated. Nonetheless, it is usually very difficult to achieve an absolutely selective metal oxide gas sensor in practice. Another approach is based on the preparation of materials for discrimination between several analyte in a mixture. It is impossible to do this by using one sensor signal. Therefore, it is usually done either by modulation of sensor temperature or by using sensor arrays. The present work focus on the characterization of n-type semiconducting metal oxides like Tungsten oxide (WO3), Zinc Oxide (ZnO) and Indium oxide (In2O3) for the gas sensing purpose. For the purpose of gas sensing thick as well as thin films were fabricated. Two different gases, NO2 and H2S gases were selected in order to study the gas sensing behaviour of these metal oxides. To study the problem associated with selectivity the metal oxides were doped with metals and the gas sensing characteristics were investigated. The present thesis is entitled “Development of semiconductor metal oxide gas sensors for the detection of NO2 and H2S gases” and consists of six chapters.
Resumo:
We explore the statistical properties of grain boundaries in the vortex polycrystalline phase of type-II superconductors. Treating grain boundaries as arrays of dislocations interacting through linear elasticity, we show that self-interaction of a deformed grain boundary is equivalent to a nonlocal long-range surface tension. This affects the pinning properties of grain boundaries, which are found to be less rough than isolated dislocations. The presence of grain boundaries has an important effect on the transport properties of type-II superconductors as we show by numerical simulations: our results indicate that the critical current is higher for a vortex polycrystal than for a regular vortex lattice. Finally, we discuss the possible role of grain boundaries in vortex lattice melting. Through a phenomenological theory we show that melting can be preceded by an intermediate polycrystalline phase.