228 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit (LL.M.) option Nouvelles technologies de l'information"

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous étudions le ribozyme VS de Neurospora, en tant que système modèle, pour augmenter nos connaissances sur la relation entre la structure et la fonction chez les ARNs, ainsi que pour mieux comprendre le mécanisme de clivage de ce ribozyme. Il a été proposé précédemment que la boucle interne A730 dans la tige-boucle VI (SLVI) contient le site actif du ribozyme et lie un ou plusieurs ions métalliques qui pourraient participer au mécanisme réactionnel. Nous avons déterminé par spectroscopie RMN la structure de la tige-boucle SLVI contenant la boucle A730 afin d’éclaircir ce mécanisme. La structure obtenue est en accord avec les études biochimiques antérieures et présente un ou plusieurs sites de liaison au magnésium associé à la boucle interne. Suite à des études de cinétique et de mutagenèse, il a été proposé qu’une adénine localisée dans le site actif, A756, participe à la catalyse par acide/base générale. Des études de pH effectuées précédemment ont identifié un pKa catalytique (5.2-5.8) qui correspond probablement à l’équilibre de protonation du A756. À l’aide de méthodes utilisant le carbone-13, nous avons identifié un pKa modifié appartenant au A756, ce qui supporte le rôle de ce résidu dans la catalyse par acide/base générale. Les études structurales présentées ici aident donc à augmenter notre compréhension du mécanisme de clivage chez le ribozyme VS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trois protéines de la famille TRIM (Motif TRIpartite), TIF1α, β (Transcriptional Intermediary Factor 1) et PML (ProMyelocytic Leukaemia¬), font l’objet de cette étude. TIF1α est connu comme un coactivateur des récepteurs nucléaires et TIF1β comme le corépresseur universel des protéines KRAB-multidoigt de zinc dont le prototype étudié ici est ZNF74. PML possède divers rôles dont le plus caractérisé est celui d’être l’organisateur principal et essentiel des PML-NBs (PML-Nuclear Bodies), des macrostructures nucléaires très dynamiques regroupant et coordonnant plus de 40 protéines. Il est à noter que la fonction de TIF1α, β et PML est régulée par une modification post-traductionnelle, la sumoylation, qui implique le couplage covalent de la petite protéine SUMO (Small Ubiquitin like MOdifier) à des lysines de ces trois protéines cibles. Cette thèse propose de développer des méthodes utilisant le BRET (Bioluminescence Resonance Energy Transfert) afin de détecter dans des cellules vivantes et en temps réel des interactions non-covalentes de protéines nucléaires mais aussi leur couplage covalent à SUMO. En effet, le BRET n’a jamais été exploré jusqu’alors pour étudier les interactions non-covalentes et covalentes de protéines nucléaires. L’étude de l’interaction de protéines transcriptionnellement actives est parfois difficile par des méthodes classiques du fait de leur grande propension à agréger (famille TRIM) ou de leur association à la matrice nucléaire (ZNF74). L’homo et l’hétérodimérisation de TIF1α, β ainsi que leur interaction avec ZNF74 sont ici testées sur des protéines entières dans des cellules vivantes de mammifères répondant aux résultats conflictuels de la littérature et démontrant que le BRET peut être avantageusement utilisé comme alternative aux essais plus classiques basés sur la transcription. Du fait de l’hétérodimérisation confirmée de TIF1α et β, le premier article présenté ouvre la possibilité d’une relation étroite entre les récepteurs nucléaires et les protéines KRAB- multidoigt de zinc. Des études précédentes ont démontré que la sumoylation de PML est impliquée dans sa dégradation induite par l’As2O3 et dépendante de RNF4, une E3 ubiquitine ligase ayant pour substrat des chaînes de SUMO (polySUMO). Dans le second article, grâce au développement d’une nouvelle application du BRET pour la détection d’interactions covalentes et non-covalentes avec SUMO (BRETSUMO), nous établissons un nouveau lien entre la sumoylation de PML et sa dégradation. Nous confirmons que le recrutement de RNF4 dépend de SUMO mais démontrons également l’implication du SBD (Sumo Binding Domain) de PML dans sa dégradation induite par l’As2O3 et/ou RNF4. De plus, nous démontrons que des sérines, au sein du SBD de PML, qui sont connues comme des cibles de phosphorylation par la voie de la kinase CK2, régulent les interactions non-covalentes de ce SBD mettant en évidence, pour la première fois, que les interactions avec un SBD peuvent dépendre d’un évènement de phosphorylation (“SBD phospho-switch”). Nos résultats nous amènent à proposer l’hypothèse que le recrutement de PML sumoylé au niveau des PML-NBs via son SBD, favorise le recrutement d’une autre activité E3 ubiquitine ligase, outre celle de RNF4, PML étant lui-même un potentiel candidat. Ceci suggère l’existence d’une nouvelle relation dynamique entre phosphorylation, sumoylation et ubiquitination de PML. Finalement, il est suggéré que PML est dégradé par deux voies différentes dépendantes de l’ubiquitine et du protéasome; la voie de CK2 et la voie de RNF4. Enfin une étude sur la sumoylation de TIF1β est également présentée en annexe. Cette étude caractérise les 6 lysines cibles de SUMO sur TIF1β et démontre que la sumoylation est nécessaire à l’activité répressive de TIF1β mais n’est pas impliquée dans son homodimérisation ou son interaction avec la boîte KRAB. La sumoylation est cependant nécessaire au recrutement d’histones déacétylases, dépendante de son homodimérisation et de l’intégrité du domaine PHD. Alors que l’on ne connaît pas de régulateur physiologique de la sumoylation outre les enzymes directement impliquées dans la machinerie de sumoylation, nous mettons en évidence que la sumoylation de TIF1β est positivement régulée par son interaction avec le domaine KRAB et suggérons que ces facteurs transcriptionnels recrutent TIF1β à l’ADN au niveau de promoteur et augmentent son activité répressive en favorisant sa sumoylation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle depart étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec le développement exponentiel de l'Internet et son corollaire l'expansion du commerce en ligne, le sort de la protection du cyberconsommateur devient un sujet préoccupant en ce 21ième siècle. En effet, dans ce monde virtuel où l'on emploie des méthodes et technologies nouvelles et plus encore des clauses abusives dans les contrats unilatéraux, s'installe indubitablement un sentiment de méfiance entre le cyberconsommateur et le cybercommerçant. Pour rétablir cette confiance et favoriser le commerce par Internet, des lois nationales, internationales et des normes communautaires ont été adoptées aux fins de l'encadrement rigoureux du processus contractuel. Toutefois, en raison de la présence fréquente d'éléments d'extranéité dans les contrats de consommation en ligne, la question fondamentale qui vient tout naturellement à l'esprit de tous ceux qui entreprennent des études aujourd'hui, en la matière, est celle de savoir si les règles classiques de droit international privé sont dépassées par le développement trop rapide de ce type de commerce ou si au contraire elles y sont adaptées. On pourrait en outre se demander si l'encadrement juridique offert au cyberconsommateur est à même de lui procurer le même niveau de protection dont il bénéficie dans le commerce traditionnel. La présente étude tente d'apporter certains éléments de réponse en analysant dans un premier temps, le droit substantiel interne de protection du consommateur dans les systèmes juridiques européen, français, canadien et québécois en vu de scruter des zones de conflits susceptibles d'exister dans le cycle de vie de ce contrat. Dans la seconde partie, elle démontre que les méthodes classiques de résolution des conflits de juridiction et des conflits de lois en droit international privé, bien que nécessitant des adaptations, sont effectivement applicables au contexte de l'internet et ce, dans l'objectif privilégié de la protection du cyberconsommateur. Le bilan de l'analyse et de l'appréciation des critères de ces règles de conflits nous conduiront à l'examen des nouvelles mesures qui s'imposent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : Les enfants atteints de maladies chroniques utilisent souvent des médecines complémentaires. Plusieurs études traitent de l’utilisation de ces traitements et des facteurs qui y sont associés chez les enfants atteints d’arthrite juvénile mais aucune étude n’est longitudinale. De plus, aucune n’a documenté l’utilisation de ces traitements chez les enfants ayant des incapacités physiques en attente de services publics de réadaptation. Objectifs : Les objectifs de cette étude étaient de déterminer la fréquence d’utilisation des médecines complémentaires chez les enfants atteints d’arthrite juvénile et d’incapacités physiques, d’évaluer leur efficacité telle que perçue par les parents et d’explorer les facteurs associés à leur utilisation. Méthodes : Une cohorte d’enfants atteints d’arthrite juvénile idiopathique (n=182, âge moyen : 10,2 ans) qui fréquentent des cliniques d’arthrite et une cohorte d’enfants ayant des incapacités physiques en attente de services de réadaptation publics (n=224, âge moyen : 2,6 ans) ont été suivis durant une période d’un an. L’utilisation des médecines complémentaires et la perception de leur efficacité d’après les parents ont été évaluées à l’aide de statistiques descriptives à chaque trois mois pour la cohorte d’enfants atteints d’arthrite et au début de l’étude pour la cohorte d’enfants ayant des incapacités physiques. Les facteurs associés à l’utilisation de ces traitements ont été explorés par des analyses de type GEE (« Generalized estimating equations ») et des régressions polytomique et logistique. Résultats : L’utilisation antérieure de ces médecines était de 51,1% pour les enfants atteints d’arthrite et de 15% pour les enfants ayant des incapacités physiques. Les médecines complémentaires étaient considérées comme étant efficaces dans 72% des cas par les parents d’enfants atteints d’arthrite et dans 83% des cas par les parents d’enfants ayant des incapacités physiques. Les facteurs associés à l’utilisation des médecines complémentaires chez les enfants atteints d’arthrite étaient l’utilisation antérieure des médecines complémentaires par les parents et la perception des parents que les médicaments prescrits ne sont pas utiles pour leur enfant. Chez les enfants ayant des incapacités physiques, les facteurs associés à l’utilisation des médecines complémentaires étaient l’origine culturelle canadienne, un niveau de scolarité plus élevé que le diplôme d’études secondaires et une moins bonne qualité de vie reliée à la santé. Finalement, l’utilisation des médecines complémentaires semblait associée à de moins bons résultats chez les enfants atteints d’arthrite. Conclusion: Une proportion non-négligeable des enfants participant à la présente étude ont utilisé des médecines complémentaires. Leur utilisation était plus fréquente chez les enfants atteints d’arthrite juvénile idiopathique, surtout chez ceux dont les parents avaient déjà utilisé les médecines complémentaires par le passé et chez ceux qui trouvaient la médication peu efficace. Chez les enfants ayant des incapacités physiques, l’utilisation des médecines complémentaires était associée à des facteurs socio-démographiques et à des besoins plus élevés en matière de santé. Les médecines complémentaires étaient considérées comme étant efficaces dans les deux cohortes mais leur utilisation était associée à de faibles résultats chez les enfants atteints d’arthrite. Ces résultats démontrent l’importance d’évaluer l’utilisation des médecines complémentaires afin de mieux renseigner les parents et de les aider à prendre les meilleures décisions possibles concernant le traitement de leur enfant.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte: Les centres de jour offrent des interventions de groupe à des personnes âgées qui présentent des incapacités, dans le but de favoriser leur maintien à domicile. Des études récentes tendent à démontrer qu’une utilisation régulière du service serait nécessaire pour induire des effets bénéfiques. Objectifs: Cette recherche visait à documenter l’utilisation des centres de jour par des personnes âgées qui présentent des incapacités. Elle comportait trois principaux objectifs: 1) Caractériser les utilisateurs de centre de jour et ce qui les distingue des non-utilisateurs et analyser les déterminants de l’utilisation du centre de jour. 2) Explorer l’adéquation entre les activités offertes par les centres de jour et les caractéristiques d’autonomie et de santé des utilisateurs. 3) Définir les facteurs associés à la régularité de la participation. Méthodes: Cette recherche s’appuie sur une analyse secondaire de données recueillies auprès de 723 personnes âgées qui ont participé au projet de démonstration SIPA (Services intégrés pour personnes âgées) implanté dans deux CLSC de la région de Montréal. L’utilisation du centre de jour a été documentée pendant une période de six mois, auprès des cinq centres de jour existant sur ce même territoire. Des informations sur le fonctionnement des centres de jour ont été obtenues par des entrevues et des rencontres de groupe auprès de coordonnateurs de ces centres. Les données ont été analysées à l’aide de statistiques descriptives, d’analyses en regroupement et d’analyses de régression logistique et multiple. Résultats: Les résultats sont présentés dans trois articles, soit un pour chacun des objectifs. Article 1: La proportion d’utilisateurs de centre de jour est de 18,8% (IC-0,95: 16,0 à 21,7%). Les facteurs suivants augmentent la probabilité d’utiliser le centre de jour: être plus jeune (RC: 1,12; IC-0,95: 1,06 à 1,19); ne pas avoir une éducation universitaire (RC: 1,92; IC-0,95: 1,04 à 3,57); recevoir l’aide du CLSC pour les activités de vie quotidienne plus d’une fois par semaine (RC: 1,73 et 2,48 pour aide de deux à cinq fois par semaine et aide de six à sept fois par semaine respectivement; IC-0,95: 1,06 à 2,80 et 1,22 à 5,06); faire partie du bassin de desserte d’un centre de jour dont les coûts sont moins élevés (RC: 1,054 ; IC-0,95: 1,001 à 1,108 pour chaque augmentation de 1$); et pour les hommes seulement, avoir déjà subi un accident vasculaire cérébral et présenter davantage d’incapacités fonctionnelles (interaction entre le sexe et la présence d’un AVC: RC: 0,298; IC-0,95: 0,108 à 0,825; interaction entre le sexe et les capacités fonctionnelles mesurées à l’OARS: RC: 1,096; IC-0,95: 1,019 à 1,178). De plus, on observe une plus grande probabilité d’utiliser le centre de jour chez les personnes qui cohabitent avec une personne de soutien. Toutefois, cette relation ne s’observe que chez les personnes nées au Canada (interaction entre la cohabitation avec la personne de soutien et le pays de naissance: RC: 0,417; IC-0,95: 0,185 à 0,938). Article 2: Des analyses en regroupement ont permis de distinguer quatre profils de participants ayant des caractéristiques similaires: 1) les personnes fragilisées par un âge avancé et un grand nombre de problèmes de santé; 2) les participants plus jeunes et plus autonomes que la moyenne, qui semblent des utilisateurs précoces; 3) les personnes qui présentent des incapacités d’origine cognitive; et 4) celles qui présentent des incapacités d’origine motrice. Les activités de groupe des centres de jour ont été regroupées en huit catégories: exercices physiques; groupe spécifique pour un diagnostic ou un problème fonctionnel commun; activités fonctionnelles; stimulation cognitive; activités musicales ou de réminiscence; sports et jeux physiques; intégration sociale; prévention et promotion de la santé. Les activités les plus fréquentes sont les exercices physiques et les activités d’intégration sociale auxquelles ont participé plus de 90% des utilisateurs de centre de jour, et ce en moyenne à respectivement 78% (±23%) et 72% (±24%) de leurs présences au centre de jour. Les autres catégories d’activités rejoignent de 45% à 77% des participants, et ce en moyenne à 35% (±15%) à 46% (±33%) de leurs présences. La participation aux diverses catégories d’activités a été étudiée pour chaque profil d’utilisateurs et comparée aux activités recommandées pour divers types de clientèle. On observe une concordance partielle entre les activités offertes et les besoins des utilisateurs. Cette concordance apparaît plus grande pour les participants qui présentent des problèmes de santé physique ou des incapacités d’origine motrice et plus faible pour ceux qui présentent des symptômes dépressifs ou des atteintes cognitives. Article 3: Les participants au centre de jour y sont inscrits en moyenne à raison de 1,56 (±0,74) jours par semaine mais sont réellement présents à 68,1% des jours attendus. Les facteurs suivants sont associés à une participation plus régulière au centre de jour en termes de taux de présences réelles / présences attendues: ne pas avoir travaillé dans le domaine de la santé (b: ,209; IC-0,95: ,037 à ,382); recevoir de l’aide du CLSC les jours de fréquentation du centre de jour (b: ,124; IC-0,95: ,019 à ,230); être inscrit pour la journée plutôt que la demi-journée (b: ,209: IC-0,95: ,018 à ,399); lors de ses présences au centre de jour, avoir une moins grande proportion d’activités de prévention et promotion de la santé (b: ,223; IC-0,95: ,044 à ,402); et enfin, avoir un aidant qui présente un fardeau moins élevé pour les personnes avec une atteinte cognitive et un fardeau plus élevé pour les personnes sans atteinte cognitive (interaction entre la présence d’atteinte cognitive et le fardeau de l’aidant: b: -,008; IC-0,95: -,014 à -,044). Conclusion: Conformément à leur mission, les centres de jour rejoignent une bonne proportion des personnes âgées qui présentent des incapacités. Cette étude fait ressortir les caractéristiques des personnes les plus susceptibles d’y participer. Elle suggère la nécessité de revoir la planification des activités pour assurer une offre de services qui tienne davantage compte des besoins des participants, en particulier de ceux qui présentent des atteintes cognitives et des symptômes de dépression. Elle démontre aussi que l’intensité d’exposition au service semble faible, ce qui soulève la question des seuils d’exposition nécessaires pour induire des effets favorables sur le maintien à domicile et sur la qualité de vie de la clientèle cible.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La bio-informatique est un champ pluridisciplinaire qui utilise la biologie, l’informatique, la physique et les mathématiques pour résoudre des problèmes posés par la biologie. L’une des thématiques de la bio-informatique est l’analyse des séquences génomiques et la prédiction de gènes d’ARN non codants. Les ARN non codants sont des molécules d’ARN qui sont transcrites mais pas traduites en protéine et qui ont une fonction dans la cellule. Trouver des gènes d’ARN non codants par des techniques de biochimie et de biologie moléculaire est assez difficile et relativement coûteux. Ainsi, la prédiction des gènes d’ARNnc par des méthodes bio-informatiques est un enjeu important. Cette recherche décrit un travail d’analyse informatique pour chercher des nouveaux ARNnc chez le pathogène Candida albicans et d’une validation expérimentale. Nous avons utilisé comme stratégie une analyse informatique combinant plusieurs logiciels d’identification d’ARNnc. Nous avons validé un sous-ensemble des prédictions informatiques avec une expérience de puces à ADN couvrant 1979 régions du génome. Grace à cette expérience nous avons identifié 62 nouveaux transcrits chez Candida albicans. Ce travail aussi permit le développement d’une méthode d’analyse pour des puces à ADN de type tiling array. Ce travail présente également une tentation d’améliorer de la prédiction d’ARNnc avec une méthode se basant sur la recherche de motifs d’ARN dans les séquences.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les tendinites sont des lésions communes chez le cheval athlète, ayant un impact financier et sportif considérable. Les cellules souches mésenchymateuses (CSMs) de moelle osseuse (MO) sont empiriquement utilisées en clinique pour améliorer la guérison des affections myoarthrosquelettiques. Cependant, il est nécessaire de standardiser les protocoles d’isolement des CSMs équines et d’analyser leurs effets sur la guérison tendineuse pour ajuster leur dose. Les objectifs de cette étude étaient de comparer 3 méthodes d’isolement des CSMs équines et d’établir un modèle de guérison tendineuse minimal invasif pour analyser l’effet des CSMs sur cette guérison. Des CSMs de MO du sternum de juments étaient isolées par 3 protocoles couramment utilisés (adhérence au pétri (Classique) et 2 méthodes par gradient de densité (Percoll et Ficoll)). La viabilité des cellules après isolement, le rendement d’isolement, le nombre de CSMs obtenues après 14 jours de culture et leurs caractéristiques fonctionnelles (renouvellement et différentiation) étaient comparés entre les 3 protocoles. Les résultats suggéraient que le Percoll était le meilleur protocole en termes de rendement et de capacité de renouvellement des cellules. La différence n’était pas significative pour leur viabilité et leur capacité de différentiation. Un modèle de guérison tendineuse, consistant en une ténectomie du tendon extenseur latéral du doigt fut ensuite développé. Cependant, la grande variabilité interindividuelle de qualité de guérison dans le groupe pilote implique une ré-évaluation du modèle. Des études futures, avec des CSMs isolées par le Percoll dans de nouveaux modèles de guérison tendineuse devraient permettre de déterminer la dose adéquate de CSMs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons deparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.