975 resultados para Log-log Method
Resumo:
Transitional cell carcinoma (TCC) of the urothelium is often multifocal and subsequent tumors may occur anywhere in the urinary tract after the treatment of a primary carcinoma. Patients initially presenting a bladder cancer are at significant risk of developing metachronous tumors in the upper urinary tract (UUT). We evaluated the prognostic factors of primary invasive bladder cancer that may predict a metachronous UUT TCC after radical cystectomy. The records of 476 patients who underwent radical cystectomy for primary invasive bladder TCC from 1989 to 2001 were reviewed retrospectively. The prognostic factors of UUT TCC were determined by multivariate analysis using the COX proportional hazards regression model. Kaplan-Meier analysis was also used to assess the variable incidence of UUT TCC according to different risk factors. Twenty-two patients (4.6%). developed metachronous UUT TCC. Multiplicity, prostatic urethral involvement by the bladder cancer and the associated carcinoma in situ (CIS) were significant and independent factors affecting the occurrence of metachronous UUT TCC (P = 0.0425, 0.0082, and 0.0006, respectively). These results were supported, to some extent, by analysis of the UUT TCC disease-free rate by the Kaplan-Meier method, whereby patients with prostatic urethral involvement or with associated CIS demonstrated a significantly lower metachronous UUT TCC disease-free rate than patients without prostatic urethral involvement or without associated CIS (log-rank test, P = 0.0116 and 0.0075, respectively). Multiple tumors, prostatic urethral involvement and associated CIS were risk factors for metachronous UUT TCC, a conclusion that may be useful for designing follow-up strategies for primary invasive bladder cancer after radical cystectomy.
The adherence of Pseudomonas fluorescens to marble, granite, synthetic polymers, and stainless steel
Resumo:
The adherence of Pseudomonas fluorescens cells to nine food-processing contact surfaces was evaluated using the plate-count method. The surfaces include marble, granite, stainless steel, polyvinyl chloride, polyurethane, and silicone-coated cloth, which have been used only in a few studies concerning bacterial adherence. The number of cells adhered to the surfaces increased with contact time reaching 5.0-6.1 log CDM.cm-2 after 10 hours, which can be considered a well established adherence process. The number of adhered cells doubled in 29.5 minutes and 23.5 minutes on stainless steel and thin polyvinyl chloride-coated cloth, respectively. For the other surfaces, this value was 9.8 minutes on average. Marble, granite, thick polyvinyl-coated cloth, double-faced rugous polyurethane, and silicone-coated cloth were not different (p < 0.05) in their ability to adhere cells (CFU/cm²) after 2 and 10 hours. The surfaces that had higher percentage of similarity in the adhesion level and higher log CFU/cm² of adhered cells were double-faced rugous polyurethane, silicone-coated cloth, and granite. The surfaces showed very different microtopography characteristics when viewed using scanning electron microscopy. This experiment showed the importance of using appropriate materials for food contact during processing, which will affect the cleaning and sanitation procedures.
Resumo:
To investigate microbial diversity and identify spoilage bacteria in fresh pork sausages during storage, twelve industrial pork sausages of different trademarks were stored at 4 ºC for 0, 14, 28 and 42 days, 80% relative humidity and packaged in sterile plastic bags. Microbiological analysis was performed. The pH and water activity (a w) were measured. The culture-independent method performed was the Polymerase Chain Reaction - Denaturing Gradient Gel Electrophoresis (PCR-DGGE). The culture-dependent method showed that the populations of mesophilic bacteria and Lactic Acid Bacteria (LAB) increased linearly over storage time. At the end of the storage time, the average population of microorganisms was detected, in general, at the level of 5 log cfu g-1. A significant (P < 0.005) increase was observed in pH and a w values at the end of the storage time. The PCR-DGGE allowed a rapid identification of dominant communities present in sausages. PCR-DGGE discriminated 15 species and seven genera of bacteria that frequently constitute the microbiota in sausage products. The most frequent spoilage bacteria identified in the sausages were Lactobacillus sakei and Brochothrix thermosphacta. The identification of dominant communities present in fresh pork sausages can help in the choice of the most effective preservation method for extending the product shelf-life.
Resumo:
X-ray computed log tomography has always been applied for qualitative reconstructions. In most cases, a series of consecutive slices of the timber are scanned to estimate the 3D image reconstruction of the entire log. However, the unexpected movement of the timber under study influences the quality of image reconstruction since the position and orientation of some scanned slices can be incorrectly estimated. In addition, the reconstruction time remains a significant challenge for practical applications. The present study investigates the possibility to employ modern physics engines for the problem of estimating the position of a moving rigid body and its scanned slices which are subject to X-ray computed tomography. The current work includes implementations of the extended Kalman filter and an algebraic reconstruction method for fan-bean computer tomography. In addition, modern techniques such as NVidia PhysX and CUDA are used in current study. As the result, it is numerically shown that it is possible to apply the extended Kalman filter together with a real-time physics engine, known as PhysX, in order to determine the position of a moving object. It is shown that the position of the rigid body can be determined based only on reconstructions of its slices. However, the simulation of the body movement sometimes is subject to an error during Kalman filter employment as PhysX is not always able to continue simulating the movement properly because of incorrect state estimation.
Resumo:
Kinetics and product studies of the decompositions of allyl-t-butyl peroxide and 3-hydroperoxy- l-propene (allyl hydroperoxide ) in tolune were investigated. Decompositions of allyl-t-butyl peroxide in toluene at 130-1600 followed first order kinetics with an activation energy of 32.8 K.cals/mol and a log A factor of 13.65. The rates of decomposition were lowered in presence of the radical trap~methyl styrene. By the radical trap method, the induced decomposition at 1300 is shown to be 12.5%. From the yield of 4-phenyl-l,2- epoxy butane the major path of induced decomposition is shown to be via an addition mechanism. On the other hand, di-t-butYl peroxyoxalate induced decomposition of this peroxide at 600 proceeded by an abstraction mechanism. Induced decomposition of peroxides and hydroperoxides containing the allyl system is proposed to occur mainly through an addition mechanism at these higher temperatures. Allyl hydroperoxide in toluene at 165-1850 decomposes following 3/2 order kinetics with an Ea of 30.2 K.cals per mole and log A of 10.6. Enormous production of radicals through chain branching may explain these relatively low values of E and log A. The complexity of the reaction is indicated a by the formation of various products of the decomposition. A study of the radical attack of the hydro peroxide at lower temperatures is suggested as a further work to throw more light on the nature of decomposition of this hydroperoxide.
Resumo:
Relationships between surface sediment diatom assemblages and lake trophic status were studied in 50 Canadian Precambrian Shield lakes in the Muskoka-Haliburton and southern Ontario regions. The purpose of this study was to develop mathematical regression models to infer lake trophic status from diatom assemblage data. To achieve this goal, however, additional investigations dealing with the evaluation of lake trophic status and the autecological features of key diatom species were carried out. Because a unifying index and classification for lake trophic status was not available, a new multiple index was developed in this study, by the computation of the physical, chemical and biological data from 85 south Ontario lakes. By using the new trophic parameter, the lake trophic level (TL) was determined: TL = 1.37 In[1 +(TP x Chl-a / SD)], where, TP=total phosphorus, Chl-a=chlorophyll-a and SD=Secchi depth. The boundaries between 7 lake trophic categories (Ultra-oligotrophic lakes: 0-0.24; Oligotrophic lakes: 0.241-1.8; Oligomesotrophic lakes: 1.813.0; Mesotrophic lakes: 3.01-4.20; Mesoeutrophic lakes: 4.21-5.4; Eutrophic lakes: 5.41-10 and Hyper-eutrophic lakes: above 10) were established. The new trophic parameter was more convenient for management of water quality, communication to the public and comparison with other lake trophic status indices than many of the previously published indices because the TL index attempts to Increase understanding of the characteristics of lakes and their comprehensive trophic states. It is more reasonable and clear for a unifying determination of true trophic states of lakes. Diatom specIes autecology analysis was central to this thesis. However, the autecological relationship of diatom species and lake trophic status had not previously been well documented. Based on the investigation of the diatom composition and variety of species abundance in 30 study lakes, the distribution optima of diatom species were determined. These determinations were based on a quantitative method called "weighted average" (Charles 1985). On this basis, the diatom species were classified into five trophic categories (oligotrophic, oligomesotrophic, mesotrophic, mesoeutrophic and eutrophic species groups). The resulting diatom trophic status autecological features were used in the regressIon analysis between diatom assemblages and lake trophic status. When the TL trophic level values of the 30 lakes were regressed against their fi ve corresponding diatom trophic groups, the two mathematical equations for expressing the assumed linear relationship between the diatom assemblages composition were determined by (1) uSIng a single regression technique: Trophic level of lake (TL) = 2.643 - 7.575 log (Index D) (r = 0.88 r2 = 0.77 P = 0.0001; n = 30) Where, Index D = (0% + OM% + M%)/(E% + ME% + M%); 4 (2) uSIng a' multiple regressIon technique: TL=4.285-0.076 0%- 0.055 OM% - 0.026 M% + 0.033 ME% + 0.065 E% (r=0.89, r2=0.792, P=O.OOOl, n=30) There was a significant correlation between measured and diatom inferred trophic levels both by single and multiple regressIon methods (P < 0.0001, n=20), when both models were applied to another 20 test lakes. Their correlation coefficients (r2 ) were also statistically significant (r2 >0.68, n=20). As such, the two transfer function models between diatoms and lake trophic status were validated. The two models obtained as noted above were developed using one group of lakes and then tested using an entirely different group of lakes. This study indicated that diatom assemblages are sensitive to lake trophic status. As indicators of lake trophic status, diatoms are especially useful in situations where no local trophic information is available and in studies of the paleotrophic history of lakes. Diatom autecological information was used to develop a theory assessing water quality and lake trophic status.
Resumo:
A PGE1 analog, namely (±)-trans-2-(6'-carbomethoxyhexyl)-3- (E-3"-thia-1 "-octene)-4-hydroxycyclopentanone 71, has been prepared for the first time. Towards the synthesis of this compound, several synthetic approaches aimed at the preparation of the required acetylenic and E-halovinylic sulfides as building blocks were investigated. Among all the methods examined, it appeared evident that the best route to ethynyl n.pentyl sulfide 81 is via a double dehydrohalogenation of the corresponding 1,2-dibromoethyl sulfide with sodium amide in liquid ammonia. In addition, the isomerically pure E-2-iodoethenyl n.pentyl sulfide 85 is conveniently prepared in high yield and stereoselectivity by hydrozirconation-iodination of the terminal ethynyl sulfide 81. The classical hydroalumination and hydroboration reactions for the preparation of vinyl halides from alkynes gave only small yields when applied as methods towards the synthesis of 85 . The building block 2-(6'-carbomethoxyhexyl)-4-hydroxy-2- cyclopentenone (±)-1 carrying the upper side-chain of prostaglandin E 1 was prepared by a step-wise synthesis involving transformations of compounds possessing the required carbocyclic framework (see scheme 27). The synthesis proved to be convenient and gave a good overall yield of (±)-1 which was protected as the TH P-derivative 37 or the siloxy derivative 38. With the required building blocks 81 and 37 in hand, the target 1S-thia-PGE1 analog (±)-71 was prepared via the in situ higher cuprate formation-conjugate addition reaction. This method proved to be convenient and stereospecific. The standard cuprate method, involving an organocuprate reagent generated from an isolated vinyl iodide, did not work well in our case and gave a complicated mixture of products. The target compound will be submitted for assessment of bio log ical activity.
Resumo:
Introduction : La chronicité de la rhinosinusite, sa résistance aux antibiotiques, et ses exacerbations aiguës laissent croire que les biofilms sont impliqués dans la rhinosinusite chronique. Objectifs : Nous avons évalué la capacité des bactéries Pseudomonas aeruginosa, staphylocoques à coagulase négative et Staphylococcus aureus à former des biofilms par un essai in vitro, et si cette capacité de formation a un lien avec l’évolution de la maladie. Nous avons évalué in vitro l’effet de la moxifloxacine, un antibiotique utilisé dans le traitement de la rhinosinusite chronique sur des biofilms matures de Staphylococcus aureus. Méthodes : Trent et une souches bactériennes ont été isolées de 19 patients atteints de rhinosinusite chronique et qui ont subit au moins une chirurgie endoscopique des sinus. L’évolution de la maladie a été notée comme "bonne" ou "mauvaise" selon l’évaluation du clinicien. La production de biofilm a été évaluée grâce à la coloration au crystal violet. Nous avons évalué la viabilité du biofilm après traitement avec la moxifloxacine. Ces résultats ont été confirmés en microscopie confocale à balayage laser et par la coloration au LIVE/DEAD BacLight. Résultat et Conclusion : Vingt deux des 31 souches ont produit un biofilm. La production d’un biofilm plus importante chez Pseudomonas aeruginosa et Staphylococcus aureus était associée à une mauvaise évolution. Ceci suggère un rôle du biofilm dans la pathogenèse de la rhinosinusite chronique. Le traitement avec la moxifloxacine, à une concentration de 1000X la concentration minimale inhibitrice réduit le nombre des bactéries viables de 2 à 2.5 log. Ces concentrations (100 µg/ml - 200 µg/ml) sont faciles à atteindre dans des solutions topiques. Les résultats de notre étude suggèrent que l’utilisation de concentrations supérieure à la concentration minimale inhibitrice sous forme topique peut ouvrir des voies de recherche sur de nouveaux traitements qui peuvent être bénéfiques pour les patients atteints de forme sévère de rhinosinusite chronique surtout après une chirurgie endoscopique des sinus.
Resumo:
Soit $p_1 = 2, p_2 = 3, p_3 = 5,\ldots$ la suite des nombres premiers, et soient $q \ge 3$ et $a$ des entiers premiers entre eux. R\'ecemment, Daniel Shiu a d\'emontr\'e une ancienne conjecture de Sarvadaman Chowla. Ce dernier a conjectur\'e qu'il existe une infinit\'e de couples $p_n,p_{n+1}$ de premiers cons\'ecutifs tels que $p_n \equiv p_{n+1} \equiv a \bmod q$. Fixons $\epsilon > 0$. Une r\'ecente perc\'ee majeure, de Daniel Goldston, J\`anos Pintz et Cem Y{\i}ld{\i}r{\i}m, a \'et\'e de d\'emontrer qu'il existe une suite de nombres r\'eels $x$ tendant vers l'infini, tels que l'intervalle $(x,x+\epsilon\log x]$ contienne au moins deux nombres premiers $\equiv a \bmod q$. \'Etant donn\'e un couple de nombres premiers $\equiv a \bmod q$ dans un tel intervalle, il pourrait exister un nombre premier compris entre les deux qui n'est pas $\equiv a \bmod q$. On peut d\'eduire que soit il existe une suite de r\'eels $x$ tendant vers l'infini, telle que $(x,x+\epsilon\log x]$ contienne un triplet $p_n,p_{n+1},p_{n+2}$ de nombres premiers cons\'ecutifs, soit il existe une suite de r\'eels $x$, tendant vers l'infini telle que l'intervalle $(x,x+\epsilon\log x]$ contienne un couple $p_n,p_{n+1}$ de nombres premiers tel que $p_n \equiv p_{n+1} \equiv a \bmod q$. On pense que les deux \'enonc\'es sont vrais, toutefois on peut seulement d\'eduire que l'un d'entre eux est vrai, sans savoir lequel. Dans la premi\`ere partie de cette th\`ese, nous d\'emontrons que le deuxi\`eme \'enonc\'e est vrai, ce qui fournit une nouvelle d\'emonstration de la conjecture de Chowla. La preuve combine des id\'ees de Shiu et de Goldston-Pintz-Y{\i}ld{\i}r{\i}m, donc on peut consid\'erer que ce r\'esultat est une application de leurs m\'thodes. Ensuite, nous fournirons des bornes inf\'erieures pour le nombre de couples $p_n,p_{n+1}$ tels que $p_n \equiv p_{n+1} \equiv a \bmod q$, $p_{n+1} - p_n < \epsilon\log p_n$, avec $p_{n+1} \le Y$. Sous l'hypoth\`ese que $\theta$, le \og niveau de distribution \fg{} des nombres premiers, est plus grand que $1/2$, Goldston-Pintz-Y{\i}ld{\i}r{\i}m ont r\'eussi \`a d\'emontrer que $p_{n+1} - p_n \ll_{\theta} 1$ pour une infinit\'e de couples $p_n,p_{n+1}$. Sous la meme hypoth\`ese, nous d\'emontrerons que $p_{n+1} - p_n \ll_{q,\theta} 1$ et $p_n \equiv p_{n+1} \equiv a \bmod q$ pour une infinit\'e de couples $p_n,p_{n+1}$, et nous prouverons \'egalement un r\'esultat quantitatif. Dans la deuxi\`eme partie, nous allons utiliser les techniques de Goldston-Pintz-Y{\i}ld{\i}r{\i}m pour d\'emontrer qu'il existe une infinit\'e de couples de nombres premiers $p,p'$ tels que $(p-1)(p'-1)$ est une carr\'e parfait. Ce resultat est une version approximative d'une ancienne conjecture qui stipule qu'il existe une infinit\'e de nombres premiers $p$ tels que $p-1$ est une carr\'e parfait. En effet, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $n = \ell_1\cdots \ell_r$, avec $\ell_1,\ldots,\ell_r$ des premiers distincts, et tels que $(\ell_1-1)\cdots (\ell_r-1)$ est une puissance $r$-i\`eme, avec $r \ge 2$ quelconque. \'Egalement, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n = \ell_1\cdots \ell_r \le Y$ tels que $(\ell_1+1)\cdots (\ell_r+1)$ est une puissance $r$-i\`eme. Finalement, \'etant donn\'e $A$ un ensemble fini d'entiers non-nuls, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $\prod_{p \mid n} (p+a)$ est une puissance $r$-i\`eme, simultan\'ement pour chaque $a \in A$.
Resumo:
Contexte: Les facteurs de risque comportementaux, notamment l’inactivité physique, le comportement sédentaire, le tabagisme, la consommation d’alcool et le surpoids sont les principales causes modifiables de maladies chroniques telles que le cancer, les maladies cardiovasculaires et le diabète. Ces facteurs de risque se manifestent également de façon concomitante chez l’individu et entraînent des risques accrus de morbidité et de mortalité. Bien que les facteurs de risque comportementaux aient été largement étudiés, la distribution, les patrons d’agrégation et les déterminants de multiples facteurs de risque comportementaux sont peu connus, surtout chez les enfants et les adolescents. Objectifs: Cette thèse vise 1) à décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux des maladies chroniques chez les enfants et adolescents canadiens; 2) à explorer les corrélats individuels, sociaux et scolaires de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens; et 3) à évaluer, selon le modèle conceptuel de l’étude, l’influence longitudinale d’un ensemble de variables distales (c’est-à-dire des variables situées à une distance intermédiaire des comportements à risque) de type individuel (estime de soi, sentiment de réussite), social (relations sociales, comportements des parents/pairs) et scolaire (engagement collectif à la réussite, compréhension des règles), ainsi que de variables ultimes (c’est-à-dire des variables situées à une distance éloignée des comportements à risque) de type individuel (traits de personnalité, caractéristiques démographiques), social (caractéristiques socio-économiques des parents) et scolaire (type d’école, environnement favorable, climat disciplinaire) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens. Méthodes: Des données transversales (n = 4724) à partir du cycle 4 (2000-2001) de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) ont été utilisées pour décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-17 ans. L’agrégation des facteurs de risque a été examinée en utilisant une méthode du ratio de cas observés sur les cas attendus. La régression logistique ordinale a été utilisée pour explorer les corrélats de multiples facteurs de risque comportementaux dans un échantillon transversal (n = 1747) de jeunes canadiens âgés de 10-15 ans du cycle 4 (2000-2001) de l’ELNEJ. Des données prospectives (n = 1135) à partir des cycle 4 (2000-2001), cycle 5 (2002-2003) et cycle 6 (2004-2005) de l’ELNEJ ont été utilisées pour évaluer l’influence longitudinale des variables distales et ultimes (tel que décrit ci-haut dans les objectifs) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-15 ans; cette analyse a été effectuée à l’aide des modèles de Poisson longitudinaux. Résultats: Soixante-cinq pour cent des jeunes canadiens ont rapporté avoir deux ou plus de facteurs de risque comportementaux, comparativement à seulement 10% des jeunes avec aucun facteur de risque. Les facteurs de risque comportementaux se sont agrégés en de multiples combinaisons. Plus précisément, l’occurrence simultanée des cinq facteurs de risque était 120% plus élevée chez les garçons (ratio observé/attendu (O/E) = 2.20, intervalle de confiance (IC) 95%: 1.31-3.09) et 94% plus élevée chez les filles (ratio O/E = 1.94, IC 95%: 1.24-2.64) qu’attendu. L’âge (rapport de cotes (RC) = 1.95, IC 95%: 1.21-3.13), ayant un parent fumeur (RC = 1.49, IC 95%: 1.09-2.03), ayant rapporté que la majorité/tous de ses pairs consommaient du tabac (RC = 7.31, IC 95%: 4.00-13.35) ou buvaient de l’alcool (RC = 3.77, IC 95%: 2.18-6.53), et vivant dans une famille monoparentale (RC = 1.94, IC 95%: 1.31-2.88) ont été positivement associés aux multiples comportements à risque. Les jeunes ayant une forte estime de soi (RC = 0.92, IC 95%: 0.85-0.99) ainsi que les jeunes dont un des parents avait un niveau d’éducation postsecondaire (RC = 0.58, IC 95%: 0.41-0.82) étaient moins susceptibles d’avoir de multiples facteurs de risque comportementaux. Enfin, les variables de type social distal (tabagisme des parents et des pairs, consommation d’alcool par les pairs) (Log du rapport de vraisemblance (LLR) = 187.86, degrés de liberté = 8, P < 0,001) et individuel distal (estime de soi) (LLR = 76.94, degrés de liberté = 4, P < 0,001) ont significativement influencé le taux d’occurrence de multiples facteurs de risque comportementaux. Les variables de type individuel ultime (âge, sexe, anxiété) et social ultime (niveau d’éducation du parent, revenu du ménage, structure de la famille) ont eu une influence moins prononcée sur le taux de cooccurrence des facteurs de risque comportementaux chez les jeunes. Conclusion: Les résultats suggèrent que les interventions de santé publique devraient principalement cibler les déterminants de type individuel distal (tel que l’estime de soi) ainsi que social distal (tels que le tabagisme des parents et des pairs et la consommation d’alcool par les pairs) pour prévenir et/ou réduire l’occurrence de multiples facteurs de risque comportementaux chez les enfants et les adolescents. Cependant, puisque les variables de type distal (telles que les caractéristiques psychosociales des jeunes et comportements des parents/pairs) peuvent être influencées par des variables de type ultime (telles que les caractéristiques démographiques et socioéconomiques), les programmes et politiques de prévention devraient également viser à améliorer les conditions socioéconomiques des jeunes, particulièrement celles des enfants et des adolescents des familles les plus démunies.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Les antibiotiques sont fréquemment utilisés dans l’alimentation de la volaille afin de prévenir certaines maladies, dont l’entérite nécrotique, ce qui occasionne l’émergence de souches bactériennes résistantes aux antibiotiques. Une alternative prometteuse est l’utilisation de peptides antimicrobiens (AMPs) comme suppléments alimentaires, tels les AMPs provenant des produits laitiers. L’objectif du projet était de développer une méthode de production d’extraits peptidiques à partir de coproduits de la transformation alimentaire (babeurre, lactoferrine, isolat de protéines de pois), afin de tester si ces extraits peptidiques possédaient une activité antimicrobienne sur les pathogènes spécifiques aviaires suivants : Salmonella Enteritidis, Salmonella Typhimurium, Escherichia coli et Staphylococcus aureus. Les protéines ont été mises en suspension dans l’eau (5% p/p) et hydrolysées par la pepsine, 6 heures, pH de 2.5. Les peptides furent récupérés par ultrafiltration (< 10 kDa), puis fractionnés selon leur charge nette : totaux, cationiques, anioniques et non liés. L’effet antimicrobien a été évalué surmicroplaques, par la survie bactérienne en présence de concentrations croissantes d’extraits peptidiques. Les extraits cationiques de babeurre ont démontré une efficacité à une concentration inférieure ou égale à 5 mg/mL; perte de 3 log pour Escherichia coli O78 :H80. En comparaison, la lactoferrine cationique a été efficace à une concentration inférieure ou égale à 0.6 mg/mL; perte de 6 log pour E. coli O78 :H80. Les extraits peptidiques du pois ont démontré une efficacité faible. Cette méthode s’avère prometteuse pour le développement d’une alternative ou d’un complément pour la réduction de l’utilisation des antibiotiques dans l’alimentation de la volaille.
Resumo:
The age and growth, length – weight relationship and relative condition factor of Gerres filamentosus (Cuvier, 1829) from Kodungallur, Azhikode Estuary were studied by examination of 396 specimens collected between May 2008 to October 2008. Here, length frequency method was used to study age and growth in fishes. L∞, K and t 0 obtained from seasonal and non - seasonal growth curves. Gerres filamentosus showed a low mortality rate (Z) 3.702 y-1. G. filamentosus has moderately low K value and long life span. The relation between the total length and weight of G. filamentosus was described as Log W = 1.321+2.5868 log L for males, Log W = 1.467 + 2.7227 log L for females and Log W = 1.481 + 2.7316 log L for sexes combined. The mean relative condition factor (Kn) values ranged from 0.9 to 1.14 for males, 0.89 to 1.11 for females and 0.73 to 1.08 for sexes combined. The length weight relationship and relative condition factor showed that the wellbeing of G. filamentosus were good. The morphometric measurements of various body parts were recorded. The morphometric measurements were found to be nonlinear and there is no significant difference observed between the two sexes.
Resumo:
In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.