939 resultados para monitoring process mean and variance


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this research project was to use a qualitative approach to explore Critical Media Literacy (CML) with young girls by collaboratively analyzing Disney animated films. My goal was to provide a safe and encouraging space for children to share their perspectives and opinions of Disney animated female characters featured in The Little Mermaid (Ashman, Musker, & Clements, 1989), Cinderella (Disney, Geronimi, Jackson, & Luske, 1950), and The Princess and the Frog (Del Vecho, Clements, & Musker, 2009). I used CML as my theoretical framework as it provided an inquisitive approach to watching films, which, in turn, encouraged the participants to use critical thinking pertaining to the images of female characters in Disney. I also incorporated feminist theory as the majority of discussion revolved around the physical appearance of female characters as well as the participants’ understandings of femininity. I conducted two focus groups with 4 young girls, aged 7 to 11, to gain insight into their understanding of Disney female characters. An inquisitive and collaborative approach to watching films revealed three themes: (a) powerful women in Disney are mean and ugly; (b) heterosexual relationships are paramount; and (c) Disney Princesses are always pretty and nice. I concluded by recommending the importance of CML and collaborative film-watching with young children as the simplicity of asking questions encourages young people to become aware of, challenge, and think critically about the media they are consuming.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Indwelling electromyography (EMG) has great diagnostic value but its invasive and often painful characteristics make it inappropriate for monitoring human movement. Spike shape analysis of the surface electromyographic signal responds to the call for non-invasive EMG measures for monitoring human movement and detecting neuromuscular disorders. The present study analyzed the relationship between surface and indwelling EMG interference patterns. Twenty four males and twenty four females performed three isometric dorsiflexion contractions at five force levels from 20% to maximal force. The amplitude measures increased differently between electrode types, attributed to the electrode sensitivity. The frequency measures were different between traditional and spike shape measures due to different noise rejection criteria. These measures were also different between surface and indwelling EMG due to the low-pass tissue filtering effect. The spike shape measures, thought to collectively function as a means to differentiate between motor unit characteristics, changed independent of one another.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The increasing variety and complexity of video games allows players to choose how to behave and represent themselves within these virtual environments. The focus of this dissertation was to examine the connections between the personality traits (specifically, HEXACO traits and psychopathic traits) of video game players and player-created and controlled game-characters (i.e., avatars), and the link between traits and behavior in video games. In Study 1 (n = 198), the connections between player personality traits and behavior in a Massively Multiplayer Online Roleplaying Game (World of Warcraft) were examined. Six behavior components were found (i.e., Player-versus-Player, Social Player-versus-Environment, Working, Helping, Immersion, and Core Content), and each was related to relevant personality traits. For example, Player-versus-Player behaviors were negatively related to Honesty-Humility and positively related to psychopathic traits, and Immersion behaviors (i.e., exploring, role-playing) were positively related to Openness to Experience. In Study 2 (n = 219), the connections between player personality traits and in-game behavior in video games were examined in university students. Four behavior components were found (i.e., Aggressing, Winning, Creating, and Helping), and each was related to at least one personality trait. For example, Aggressing was negatively related to Honesty-Humility and positively related to psychopathic traits. In Study 3 (n = 90), the connections between player personality traits and avatar personality traits were examined in World of Warcraft. Positive player-avatar correlations were observed for all personality traits except Extraversion. Significant mean differences between players and avatars were observed for all traits except Conscientiousness; avatars had higher mean scores on Extraversion and psychopathic traits, but lower mean scores on the remaining traits. In Study 4, the connections between player personality traits, avatar traits, and observed behaviors in a life-simulation video game (The Sims 3) were examined in university students (n = 93). Participants created two avatars and used these avatars to play The Sims 3. Results showed that the selection of certain avatar traits was related to relevant player personality traits (e.g., participants who chose the Friendly avatar trait were higher in Honesty-Humility, Emotionality, and Agreeableness, and lower in psychopathic traits). Selection of certain character-interaction behaviors was related to relevant player personality traits (e.g., participants with higher levels of psychopathic traits used more Mean and fewer Friendly interactions). Together, the results of the four studies suggest that individuals generally behave and represent themselves in video games in ways that are consistent with their real-world tendencies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ventilation unipulmonaire (SLV; Single Lung Ventilation) pendant les chirurgies thoraciques entraîne des altérations cardio-pulmonaires et hémodynamiques importantes. L’objectif de ce projet de recherche consiste à étudier l’impact de la SLV sur l’oxymétrie cérébrale et sa relation avec les complications post opératoires. La première étude inclut vingt patients ayant subi une chirurgie thoracique nécessitant une SLV. L’oxymétrie a été mesurée à l’aide de l’oxymètre cérébral absolu FORESIGHTTM (CASMED, USA) afin d’étudier les changements de la saturation cérébrale absolue (SctO2) tout le long de la chirurgie. La SctO2 ainsi que les paramètres de monitorage standard (BIS, SpO2, pression sanguine, fréquence cardiaque) ont été notés à toutes les cinq minutes à partir de l’induction jusqu’au réveil. Une analyse sanguine (paO2, paCO2, Hb) a été effectuée à toutes les quinze minutes. La deuxième étude effectuée consistait d’étudier la relation entre la désaturation cérébrale en oxygène et les complications post opératoires. Pour cette fin, les scores Clavien et SOFA mesurant l’amplitude des complications, ont été établis pour chaque patient. Les données sont présentées sous forme de moyenne et de la médiane [1er quartile, 3ème quartile; min – max]. Les vingt patients de la première étude ont montré une valeur moyenne absolue de saturation cérébrale absolue (SctO2) de 80% avant l’induction. Durant la SLV, cette valeur a chuté jusqu’à 63% et est remontée à 71% directement après extubation. Tous ces patients ont subi une désaturation durant SLV de plus que 15% comparativement à la valeur de base et 70% ont eu une désaturation de plus de 20%. La désaturation n’a pas été corrélée avec aucun des paramètres de monitorage clinique standard comme la pression artérielle, les analyses des gaz artériels, la saturation périphérique ou la PaO2. La deuxième étude incluant trente autres patients aux vingt premiers, est venue confirmer les résultats de la première étude. De plus, une analyse de corrélation entre les valeurs minimales de SctO2 obtenues durant SLV et les complications post opératoires a été effectuée. Les patients avaient une SctO2 de base de 80%, qui a chuté jusqu’à 64% pendant la SLV pour récupérer à 71% avant la fin de la chirurgie. 82% des patients ont subi des désaturations de plus de 15% des valeurs initiales et 10% ont atteint des valeurs de SctO2 entre 45 et 55%. Les valeurs minimales de SctO2 observées durant la SLV corrélaient avec le score SOFA non respiratoire (R2=0,090, p=0,0287) ainsi qu’avec le score Clavien (R2=0,098, p=0,0201), mais ne corrélait avec aucun des paramètres cliniques standards (ex : SpO¬2, PaO2, PaCO2, Hb). En définissant une valeur seuil de SctO2=65%, le «Odds ratio» d’avoir une défaillance d’organe non respiratoire est de 2.37 (IC 95%=1,18 – 4,39, p=0,043) et d’avoir une complication classifiée supérieure à un score Clavien de 0 est de 3,19 (IC 95%=1,6 – 6,34, p=0,0272). Les chirurgies thoraciques avec une SLV sont associées à des chutes significatives de SctO2, et les valeurs minimales de SctO2 semblent avoir une corrélation positive avec les complications post opératoires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : La Vitamine A (rétinol, ROL) et son métabolite l’acide rétinoïque (AR) sont essentielles pour l’embryogénèse. L’excès comme l’insuffisance d’AR sont nocives. L’AR est régularisé dans l’embryon par des gènes spécifiques (ALDH, CRABP, CYP). Hypothèse : Les grandes variations d’AR dans le plasma des adultes normaux, nous ont orienté à mesurer les rétinoïdes (ROL et RA) dans le sang de cordon ombilical, pour évaluer des corrélations avec des polymorphismes des gènes impliquées dans le métabolisme de l’AR et le développement rénal-(RALDH2, CRABP2, CYP26A1; B1). Vérifier pour des corrélations entre ces rétinoïdes et/ou avec la taille de reins à la naissance. Méthodes : Extraction du ROL et RA du sang de cordon ombilical de 145 enfants et analyse par HPLC. Le volume des reins a été mesuré par ultrasonographie et l’ADN génomique leucocytaire extrait (FlexiGene DNA-Kit). 10 échantillons d’ADN ont été exclus (qualité). Les htSNP : ALDH1A2, CRABP2, CYP26A1;B1 du génome humain (HapMap) ont été séquencés et génotypés (Sequenom iPlex PCR).Des testes bio-statistiques des fréquences génotypiques et alléliques ont été effectués (Single-Locus, χ2, Kruskal-Wallis, Allelic-Exact).Des corrélations (ROL, RA, SNPs, V-reins) ont été analysés (Kendall-tau /Oakes). Résultats : La Δ RA (0.07-550.27 nmol/l) non corrélé avec la Δ ROL (51.39-3892.70 nmol/l). Il n’y a pas d’association ROL ou RA avec les volumes des reins ou avec les SNPs/ CYP21A1;B1. Corrélations trouvées : 1. (p=0.035), polymorphisme génétique ALDH1A2-SNP (rs12591551:A/C) hétérozygote/CA, (25enfants, 19%) avec moyennes d’AR (62.21nmol/l). 2. (p=0.013), polymorphisme CRABP2-SNP (rs12724719:A/G) homozygote/AA (4 enfants, 3%) avec hautes valeurs moyennes d’AR (141,3 nmol/l). Discussion-Conclusion : Les grandes ΔRA suggèrent une variabilité génique individuelle du métabolisme de ROL. Les génotypes (CA)-ALDH1A2/ SNP (rs12591551:A/C) et (AA) -CRABP2/SNP (rs12724719:A/G) sont associés à des valeurs moyennes hautes d’AR, pouvant protéger l’embryogénèse lors d’une hypovitaminose A maternelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’exposition quotidienne aux polluants atmosphériques tels que le dioxyde de soufre, les particules fines (PM2.5) et l’ozone en milieu urbain sont associés à des effets néfastes sur la santé respiratoire des enfants. Des études épidémiologiques transversales rapportent des associations entre la pollution atmosphérique et des problèmes de santé respiratoires chez les enfants en milieu industriel telles que la prévalence de l’asthme et de l'hyperréactivité bronchique. Ces études épidémiologiques transversales ne permettent pas d’évaluer les effets sur la santé d’une exposition de courte durée. Peu d’études ont évalué les effets respiratoires des expositions aiguës chez les enfants à la pollution atmosphérique d’émissions industrielles. Dans ce mémoire, nous avons analysé l’association entre l’exposition journalière aux émissions d’une aluminerie et l’hospitalisation pour problèmes respiratoires (asthme, bronchiolite) chez les enfants de Shawinigan. Pour étudier ces effets des expositions aiguës, nous avons utilisé le devis épidémiologique de type « case-crossover » qui compare l’exposition lors des jours « cas » (jour d’hospitalisation) avec l’exposition lors des jours « contrôle » (exposition du même individu, les mêmes jours de la semaine, durant le même mois). Les variables d’exposition suivantes ont été calculées pour les enfants vivants dans un rayon de 7.5 km de l’industrie et pour ceux habitant à moins de 2.5 km de la station de mesure de polluants près de l’industrie : i) le nombre d’heures par jour durant lesquelles la résidence de chaque enfant recevait le panache de fumée de l’industrie. ii) les concentrations journalières de PM2.5 et de SO2 (moyenne et maximales) de la station de mesure des polluants localisée près de l’industrie. Des régressions logistiques conditionnelles ont été utilisées pour estimer les rapports de cotes (OR) et leurs intervalles de confiance à 95% (IC95%). Au total, 429 hospitalisations d’enfants pour asthme et bronchiolite ont été recensées pendant la période d’étude allant de 1999 à 2008. Le risque d’hospitalisations pour asthme et bronchiolite a augmenté avec l’augmentation du nombre d’heures d’exposition aux fumées de l’industrie, chez les enfants de moins de 5 ans. Pour les enfants de 2-4 ans, cette association était : OR : 1.27, pour un interquartile de 4.8 heures/jour; intervalle de confiance à 95%: 1.03-1.56. Des tendances moins prononcées sont notées avec les niveaux de SO2 et de PM2.5. Cette étude suggère que l’exposition journalière aux émissions industrielles identifiées par l’exposition horaire des vents venant de l’usine pourrait être associée à une exacerbation des problèmes respiratoires chez les jeunes enfants. De plus, l’effet plus prononcé avec la variable d’exposition basée sur les vents suggère un effet découlant des polluants autres que ceux mesurés (SO2 et PM2.5), possiblement comme les hydrocarbures aromatiques polycycliques (HAP).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est mondialement reconnu que les institutions judiciaires jouent un rôle central dans le processus de prise de décisions politiques, à la fois au niveau national et international. C’est d’ailleurs le cas à la Haute Cour de justice d’Israël. L’étendue de son succès (ou de son échec) dans la tentative de trouver une solution aux violations des droits humains dans les territoires occupés est un problème qui continue de faire l’objet de bien des débats et de recherches académiques. À cet égard, il a été suggéré que, malgré l’absence de constitution écrite et l’existence d’un état d’urgence prolongé en Israël, la Haute Cour de justice a réussi à adopter une approche « judiciairement active » quant à la protection et la promotion des droits de l’homme de manière générale, y compris ceux des Palestiniens dans les territoires occupés. Dans cette perspective, le débat sur le processus d’examen judiciaire de la Haute Cour de Justice tient pour acquise la notion qu’Israël est une démocratie. Ainsi, cet article cherche à examiner cette hypothèse. Premièrement, en adoptant la position que le processus de révision judiciaire est compatible avec la démocratie et la règle de loi. Deuxièmement, il examine l’approche « judiciairement active » de la Cour et soumet un bref aperçu du processus, des outils et des principes légaux que la Cour adopte pour examiner les actions des autorités israéliennes, y compris l’armée, et imposer une loi commune de protection des droits de la personne, donc ceux des Palestiniens dans les territoires occupés. L’article argumente également que le contrôle prolongé des territoires occupés par Israël a eu des conséquences significatives, car tout effort fourni par la Cour pour garantir le respect des droits humains de la population civile palestinienne doit se faire sans compromettre la sécurité du pouvoir israélien. La conclusion à laquelle on arrive ici dépend de la façon dont on qualifie ce contrôle: une occupation à long terme ou une annexion (ce qui n’est pas réglementaire par rapport à loi internationale), ce qui n’est pas sans conséquence sur le rôle que la Haute Cour de justice peut effectivement jouer pour faire respecter les droits de la personne dans les territoires occupés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis is devoted to the study of some stochastic models in inventories. An inventory system is a facility at which items of materials are stocked. In order to promote smooth and efficient running of business, and to provide adequate service to the customers, an inventory materials is essential for any enterprise. When uncertainty is present, inventories are used as a protection against risk of stock out. It is advantageous to procure the item before it is needed at a lower marginal cost. Again, by bulk purchasing, the advantage of price discounts can be availed. All these contribute to the formation of inventory. Maintaining inventories is a major expenditure for any organization. For each inventory, the fundamental question is how much new stock should be ordered and when should the orders are replaced. In the present study, considered several models for single and two commodity stochastic inventory problems. The thesis discusses two models. In the first model, examined the case in which the time elapsed between two consecutive demand points are independent and identically distributed with common distribution function F(.) with mean  (assumed finite) and in which demand magnitude depends only on the time elapsed since the previous demand epoch. The time between disasters has an exponential distribution with parameter . In Model II, the inter arrival time of disasters have general distribution (F.) with mean  ( ) and the quantity destructed depends on the time elapsed between disasters. Demands form compound poison processes with inter arrival times of demands having mean 1/. It deals with linearly correlated bulk demand two Commodity inventory problem, where each arrival demands a random number of items of each commodity C1 and C2, the maximum quantity demanded being a (< S1) and b(and is also discussed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A new method for the fabrication of high uniformity monolithic 1 x4 single-mode fused coupler is described together with details of its performance in terms of coupling ratio, spectral response and uniformity. The fabricated device exhibits ultra-broadband performance with a port-to-port uniformity of 0.4 dB. The reliability of such couplers is also evaluated and found to have good stability. Moreover, by controlling the process parameters it is possible to control the power remaining in the through put port of the device, which can be used for dedicated non-intrusive network health monitoring

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the present work, Indigenous polymer coated Tin Free Steel cans were analyzed fortheir suitability for thermal processing and storage of fish and fish products following standard methods. The raw materials used for the development of ready to eat thermally processed fish products were found to be of fresh condition. The values for various biochemical and microbiological parameters of the raw materials were well within the limits. Based on the analysis of commercial sterility, instrumental colour, texture, WB-shear force and sensory parameters, squid masala processed to F0 value of 8 min with a total process time of 38.5 min and cook value of 92 min was chosen as the optimum for squid masala in tin free steel cans while shrimp curry processed to F0 7 min with total process time of 44.0 min and cook value of 91.1 min was found to be ideal and was selected for storage study. Squid masala and shrimp curry thermally processed in indigenous polymer coated TFS cans were found to be acceptable even after one year of storage at room temperaturebased on the analysis of various sensory and biochemical parameters. Analysis of the Commission Internationale d’ Eclirage L*, a* and b* color values showed that the duration of exposure to heat treatment influenced the color parameters: the lightness (L*) and yellowness (b*)decreased, and the redness (a*) significantly increased with the increase in processing time or reduction in processing temperature.Instrumental analysis of texture showed that hardness-1 & 2 decreased with reduction in retort temperature while cohesiveness value did not show any appreciable change with decrease in temperature of processing. Other texture profile parameters like gumminess, springiness and chewiness decreased significantly with increase of processing time. W-B shear force values of mackerel meat processed at 130 °C were significantly higher than those processed at 121.1 and 115 °C. HTST processing of mackerel in brine helped in reducing the process time and improving the quality.The study also indicated that indigenous polymer coated TFS cans with easy openends can be a viable alternative to the conventional tin and aluminium cans. The industry can utilize these cans for processing ready to eat fish and shell fish products for both domestic and export markets. This will help in reviving the canning industry in India.