1000 resultados para IL-GAP
Resumo:
U.S. Geological Survey, Department of Interior Cooperative Agreement No. 14-48-0003-95-1090
Resumo:
La presente tesi, redatta durante un tirocinio presso l’azienda Automobili Lamborghini S.p.a., ha come fine ultimo la descrizione di attività volte all’evoluzione dell’ente Training Center facente parte dell’area industriale. L’ente Training center è responsabile dell'organizzazione, dell'erogazione e del monitoraggio della formazione incentrata sulle cosiddette technical skills utili per il miglioramento o il rafforzamento delle competenze e delle conoscenze tecniche degli operatori. La prima attività descritta ha lo scopo di creare un database contenente tutte le competenze che ogni operatore deve possedere per poter lavorare autonomamente su una determinata stazione di lavoro al fine di individuare il gap di competenze. L’analisi condotta ha come obiettivi: la pianificazione strategica della forza lavoro, la mappatura dell’intera organizzazione, l’implementazione (ove necessario) di nuovi training, l’aumento della produttività, e l’aumento della competitività aziendale. In seguito, è stata svolta un’analisi delle matrici di flessibilità, ovvero delle matrici che forniscono informazioni su quanti blue collars sono in grado di lavorare su determinate stazioni e in quale ruolo (operatore in training, operatore autonomo o operatore specializzato e quindi in grado di assumere il ruolo di trainer). Studiando tali matrici sono state identificate delle regole che rendono il processo di training on the job il più efficace ed efficiente possibile con o scopo, da una parte di evitare eccessive ore di training e quindi eccessivo dispendio economico, dall’altra, quello di riuscire a coprire tutte le stazioni considerando i picchi di assenteismo della forza lavoro. Infine, si è rivelata necessaria l’implementazione di un nuovo training, il “train the tutor”, ovvero un percorso di formazione riservato ai dipendenti potenzialmente in grado di insegnare attività in cui loro sono specializzati ad operatori in training.
Resumo:
In questa tesi è stato svolto il calcolo di alcune proprietà dei materiali usando un approccio ab initio, in particolare i gap energetici e le DOS (densità di stati) di silicio e ossido di nichel. Per fare ciò, sono state usate tre diverse teorie: DFT (Density Functional Theory), DFT+U e GW. Nei primi tre capitoli sono state spiegate le tre approssimazioni fatte e le basi teoriche. Nel quarto capitolo si presentano i risultati. In particolare il gap del silicio usando la DFT è di 0.6617 eV che risulta più basso di quello sperimentale di 1.12 eV a causa dei limiti della DFT. Per la DFT+U è stato svolto il calcolo sull’ossido di nichel perché presenta orbitali d, interessati maggiormente nella correzione apportata. L’energia di gap calcolata è di 3.3986 eV . Per quel che riguarda l’approssimazione GW, è stata svolta anch’essa sul silicio e restituisce un gap di 1.301 eV , che risulta più vicino alla misura sperimentale rispetto alla DFT.
Resumo:
L’obiettivo di questa tesi è principalmente quello di mostrare le possibili applicazioni della tecnologia RFID (Radio Frequency Identification) all’interno della supply chain farmaceutica, cercando di comprendere il campo di applicazione di questa tecnologia in un’industria così altamente regolata e complessa come quella farmaceutica. La tesi è organizzata in tre sezioni; nel primo capitolo si trattano i principi alla base della tecnologia RFID e l’attuale stato dell’arte nella standardizzazione della banda di frequenza utilizzata e nell’hardware. In questa sezione sono poi mostrate le principali applicazioni e nella parte finale i problemi affrontati da un’azienda nell’applicare l’RFID al proprio business. Il secondo capitolo descrive le parti coinvolte nell’industria farmaceutica, dal produttore al consumatore finale, poi esamina le caratteristiche essenziali della supply chain farmaceutica e gli aspetti chiave e le criticità da affrontare in questo campo per essere efficiente e per consegnare il prodotto al cliente in maniera sicura e consistente. Infine nell’ultima sezione i due argomenti centrali sono fusi assieme, cercando di esaminare come la tecnologia RFID sia in grado di risolvere i problemi affrontati da tale industria. Il lavoro non vuole mostrare la tecnologia RFID come una panacea di tutte le problematiche presentate in questa industria, ma vuole cercare di colmare il gap presente in letteratura riguardo le possibili applicazioni di questa tecnologia nell’industria specificata.
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
Il primo obiettivo di questo lavoro di tesi è quello di sviluppare il primo modello matematico di potenziale d'azione pacemaker umano: è vero che gli studi elettrofisiologici pubblicati sull'uomo non hanno ancora raggiunto la mole di risultati ottenuti, invece, sugli altri mammiferi da laboratorio, ma i tempi possono ritenersi "maturi", in quanto i dati disponibili in letteratura sono sufficienti e adeguati allo scopo. Il secondo obiettivo di questo lavoro di tesi nasce direttamente dall'esigenza clinica di definire le relazioni causa-effetto tra la mutazione T78M della proteina caveolina-3 e le varie forme di aritmie cardiache riscontrate, ad essa associate. Lo scopo è quello di stabilire quale sia il link tra genotipo della mutazione e fenotipo risultante, ovvero colmare il gap esistente tra i dati sperimentali in vitro in possesso ed i meccanismi di alterazione delle correnti ioniche affette, per arrivare a osservare l'effetto che ne deriva sull'attività elettrica delle cellule. Proprio in relazione a quest'ultimo punto, i due obiettivi del lavoro convergono: l'analisi degli effetti indotti dalla mutazione T78M è, infatti, effettuata sul modello di potenziale d'azione di nodo senoatriale umano sviluppato (oltre che su altri modelli atriali).
Resumo:
Nell'ultimo decennio sono stati sviluppati numerosi materiali π-coniugati contenenti unità tiofeniche per applicazioni in dispositivi organici a film sottile. Nel campo delle celle solari, la possibilità di creare dispositivi basati sull’utilizzo di materiali organici, rispetto ai dispositivi attualmente in commercio a base di silicio, ha suscitato grande interesse soprattutto per la possibilità di realizzare dispositivi su larga area con basso costo di produzione e su substrati flessibili. Gli oligo- e i politiofeni sono eccellenti candidati grazie alle ottime proprietà di trasporto di carica e alle caratteristiche di assorbimento di luce. In celle solari di tipo Bulk-Heterojunction (BHJ), ad esempio, il poli(3-esiltiofene) è uno tra i materiali più studiati. Ad oggi, con il P3HT sono state raggiunte efficienze certificate superiori all’8%, variando sia parametri dipendenti dalla struttura molecolare, come ad esempio il peso molecolare, la regioregolarità delle catene alchiliche, il grado di polidispersità, il grado di polimerizzazione, sia parametri da cui dipende l’organizzazione della blend donatore-accettore. Per superare l’efficienza di conversione ottenuta con i polimeri classici come il P3HT è necessario progettare e sintetizzare materiali con precise caratteristiche: basso energy gap per aumentare l’assorbimento di luce, elevata mobilità di carica per avere una rapida estrazione delle cariche, posizione ottimale degli orbitali di frontiera per garantire una efficiente dissociazione dell’eccitone ed infine buona solubilità per migliorare la processabilità. Il presente lavoro di tesi si è articolato nei seguenti punti: sintesi di oligo- e politiofeni tioalchil sostituiti con inserzione di unità benzotiadiazolo per massimizzare l’assorbimento ed abbassare il gap energetico; studio dell’effetto della ramificazione del gruppo tioalchilico sull’organizzazione supramolecolare allo stato solido e successiva ottimizzazione della morfologia del film solido variando metodi di deposizione e solventi; applicazione degli oligomeri e dei polimeri sintetizzati come materiali donatori in celle fotovoltaiche di tipo Bulk-Heterojunction in presenza di fenil-C61-butirrato di metile (PCBM) come materiale accettore.
Resumo:
Un limite rilevante delle apparecchiature elettromedicali presenti in una comune sala operatoria/interventistica è rappresentato dal fatto che le informazioni clinico-strumentali che esse sono in grado di fornire vengono gestite localmente in maniera indipendente: ogni fabbricante di apparecchiatura medica, infatti, sviluppa standard proprietari per l’acquisizione, la presentazione e l’archiviazione dei dati. Ci si chiede se sia possibile una gestione globale, sincronizzata e personalizzata, delle informazioni clinico-strumentali acquisibili da diverse strumentazioni presenti nel medesimo contesto operatorio. La soluzione di SparkBio S.r.l. per colmare il gap esistente in materia di gestione di informazioni clinico-strumentali di sala è quella di concentrare le uscite video e le uscite analogiche dei vari dispositivi e visualizzarle contemporaneamente su di un unico monitor master. Il monitor master sarà suddiviso tramite una griglia in diversi settori ed ogni area predisposta per visualizzare il segnale video o analogico di un dispositivo presente in sala. Avendo a disposizione un’apparecchiatura con questa potenzialità, le applicazioni risultano innumerevoli: l’archiviazione di un unico file contenente la registrazione sincronizzata dei segnali delle varie sorgenti permette di documentare l’intera esecuzione della procedura al fine di una sua successiva visione e distribuzione: il confronto congiunto, fatto a posteriori, di parametri acquisiti da strumenti diversi rende possibile valutare particolari eventi; la condivisione con la comunità scientifica rende possibile la diffusione del sapere in materia di chirurgia. Inoltre la disponibilità di una collezione di dati concentrati in un’unica workstation apre la strada ad applicazioni nel campo della telemedicina: la condivisione a distanza delle varie sorgenti raccolte e sincronizzate via WEB, tramite l’integrazione di un software per videoconferenza, permette di realizzare supporto remoto, e-learning, telementoring e teleproctoring. L’obiettivo di questa tesi è analizzare il processo di sviluppo di questo nuovo dispositivo medico denominato “OneView”, per poi passare alla progettazione di scenari specifici applicabili a diverse procedure chirurgiche.
Resumo:
Per cercare di ridurre le emissioni inquinanti, soprattutto di CO2, si sta cercando di utilizzare sempre più fonti di energia rinnovabile. Queste non sono costanti, quindi, per ridurre il gap tra energia prodotta e richiesta, si utilizzano accumuli di energia termica, che immagazzinano l'energia quando è prodotta, per poi rilasciarla successivamente all'occorrenza. Gli accumuli termici si distinguono in sensibili, termochimici e latenti. Questa Tesi tratta l’analisi di un’innovativa tipologia di accumulo latente attraverso un materiale a cambiamento di fase (PCM) ed uno scambiatore di calore alettato. I materiali a cambiamento di fase sono in grado di immagazzinare e rilasciare energia sia con lo scambio sensibile, aumentando o diminuendo la propria temperatura, sia con lo scambio di calore latente, durante la propria transizione di fase da solido a liquido e viceversa. L’accumulo in questione è una tasca metallica con all’interno uno scambiatore di calore alettato immerso in un materiale a cambiamento di fase; il tutto è isolato dall’ambiente esterno e collegato con tubi ad un bagno termostatico caldo ed uno freddo. All'inizio l’accumulo è stato riempito con acqua, poi è stato inserito il PCM RT44HC, il cui range di temperatura di transizione di fase è 40-44°C. Nella fase di carica viene inviata acqua calda allo scambiatore per sciogliere il PCM. Nella fase di scarica, inviando acqua fredda si riprende l'energia accumulata e il PCM si solidifica. I set di prove sono stati eseguiti con temperature e portate in massa d'acqua diverse per la carica e per la scarica. I risultati mostrano che si recupera, in scarica, quasi tutta l’energia ceduta nella fase di carica e che la potenza scambiata ha un andamento decrescente nel tempo.
Resumo:
Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.
Resumo:
Most cells exchange ions and small metabolites via gap junction channels. These channels are made of two hemichannels (connexons), each formed by the radial arrangement of six connexin (Cx) proteins. Connexins span the bilayer four times (M1-M4) and have both amino- and carboxy-termini (NT, CT) at the cytoplasmic side of the membrane, forming two extracellular loops (E1, E2) and one inner (IL) loop. The channels are regulated by gates that close with cytosolic acidification (e.g., CO2 treatment) or increased calcium concentration, possibly via calmodulin activation. Although gap junction regulation is still unclear, connexin domains involved in gating are being defined. We have recently focused on the CO2 gating sensitivity of Cx32, Cx38 and various mutants and chimeras expressed in Xenopus oocytes and studied by double voltage clamp. Cx32 is weakly sensitive to CO2, whereas Cx38 is highly sensitive. A Cx32 chimera containing the second half of the inner loop (IL2) of Cx38 was as sensitive to CO2 as Cx38, indicating that this domain plays an important role. Deletion of CT by 84% did not affect CO2 sensitivity, but replacement of 5 arginines (R) with sparagines (N) at the beginning of CT (C1) greatly enhanced the CO2 sensitivity of Cx32. This suggests that whereas most of CT is irrelevant, positive charges of C1 maintain the CO2 sensitivity of Cx32 low. As a hypothesis we have proposed a model that involves charge interaction between negative residues of the beginning of IL1 and positive residues of either C1 or IL2. Open and closed channels would result from IL1-C1 and IL1-IL2 interactions, respectively
Resumo:
Cette thèse est dédiée à l’étude des matériaux InMnP et GaMnP fabriqués par implantation ionique et recuit thermique. Plus précisément nous avons investigué la possibilité de former par implantation ionique des matériaux homogènes (alliages) de InMnP et GaMnP contenant de 1 à 5 % atomiques de Mn qui seraient en état ferromagnétique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la littérature sur ce sujet. Le deuxième chapitre décrit les principes de l’implantation ionique, qui est la technique utilisée pour la fabrication des échantillons. Les effets de l’énergie, fluence et direction du faisceau ionique sur le profil d’implantation et la formation des dommages seront mis en évidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilisés pour l’implantation. Les techniques expérimentales utilisées pour la caractérisation structurale, chimique et magnétique des échantillons, ainsi que leurs limitations sont présentées dans le troisième chapitre. Quelques principes théoriques du magnétisme nécessaires pour la compréhension des mesures magnétiques se retrouvent dans le chapitre 4. Le cinquième chapitre est dédié à l’étude de la morphologie et des propriétés magnétiques des substrats utilisés pour implantation et le sixième chapitre, à l’étude des échantillons implantés au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l’implantation de Mn à plus que 1016 ions/cm2 amorphise la partie implantée du matériau et le Mn implanté se dispose en profondeur sur un profil gaussien. De point de vue magnétique les atomes implantés se trouvent dans un état paramagnétique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous présentons les propriétés des échantillons recuits à basses températures. Nous allons voir que dans ces échantillons la couche implantée est polycristalline et les atomes de Mn sont toujours dans un état paramagnétique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous présentons les résultats des mesures sur les échantillons recuits à hautes températures : il s’agit d’InP et du GaP implantés au Mn, dans le chapitre 8 et d’InP co-implanté au Mn et au P, dans le chapitre 9. D’abord, dans le chapitre 8 nous allons voir que le recuit à hautes températures mène à une recristallisation épitaxiale du InMnP et du GaMnP; aussi la majorité des atomes de Mn se déplacent vers la surface à cause d’un effet de ségrégation. Dans les régions de la surface, concentrés en Mn, les mesures XRD et TEM identifient la formation de MnP et d’In cristallin. Les mesures magnétiques identifient aussi la présence de MnP ferromagnétique. De plus dans ces mesures on trouve qu’environ 60 % du Mn implanté est en état paramagnétique avec la valeur du spin réduite par rapport à celle trouvée dans les échantillons non-recuits. Dans les échantillons InP co-implantés au Mn et au P la recristallisation est seulement partielle mais l’effet de ségrégation du Mn à la surface est beaucoup réduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en état paramagnétique au spin 5/2, dilué dans la matrice de l’InP. Finalement dans le dernier chapitre, 10, nous présentons les conclusions principales auxquels nous sommes arrivés et discutons les résultats et leurs implications.
Resumo:
Cette étude de cas, composée de trois articles, examine les diverses sources d’explication de l’écart salarial selon le genre chez les professeurs d’une grande université de recherche canadienne. Le premier article analyse les écarts selon le genre sur les primes “de marché” à partir de données d’un sondage réalisé auprès des professeurs en 2002. Une analyse des correspondances donne une solution à deux facteurs dans laquelle le second facteur oppose clairement les professeurs qui ont reçu une prime à ceux qui n’en n’ont pas reçue. Le genre est fortement associé à ce facteur, la catégorie “femme” se retrouvant du côté de l’axe associé à l’absence de primes de marché. Les résultats de la régression logistique confirment que le secteur d’activité, la fréquence des contrats de recherche, la valorisation du salaire ainsi que le rang combiné à l’ancienneté sont reliés à la présence de primes de marché, tel que proposé par les hypothèses. Toutefois, même après avoir contrôlé pour ces relations, les femmes sont toujours près de trois fois moins susceptibles de s’être vu attribuer des primes de marché que leurs homologues masculins. Dans l’ensemble, les résultats suggèrent que dans un contexte où les salaires sont déterminés par convention collective, la réindividualisation du processus de détermination des salaires — en particulier le versement de primes de marché aux professeurs d’université — peut favoriser la réapparition d’écarts de salaire selon le genre. Le second article est réalisé à partir de données administratives portant sur les années 1997 à 2006. Les contributions respectives de quatre composantes de la rémunération à l’écart salarial selon le genre y sont analysées, soit le salaire de base, l’accès au rang de professeur titulaire, l’accès aux primes de marché et chaires de recherche du Canada, de même que les montants reçus. Les composantes varient quant à leur degré de formalisation. Ceci permet de tester l’hypothèse selon laquelle l’ampleur de l’écart salarial selon le genre varie en fonction du degré de formalisation des composantes salariales. Nous déterminons également dans quelle mesure l’écart selon le genre sur les diverses composantes de la rémunération varie en fonction de la représentation relative des femmes professeurs au sein des unités. Les résultats démontrent l’existence de variations dans l’ampleur des différences selon le genre en fonction du degré de formalisation des pratiques de rémunération. Qui plus est, après contrôles, la rémunération est plus faible dans les unités où les femmes sont fortement représentées. Le dernier article examine les mécanismes pouvant mener à un écart selon le genre en ce qui a trait à l’accès aux primes de marché chez les professeurs de l’institution. Les processus d’attribution de ces suppléments salariaux sont examinés à partir d’entretiens réalisés avec 17 administrateurs à tous les niveaux hiérarchiques de l’institution et dans une diversité d’unités académiques. Les résultats suggèrent que les différences selon le genre pourraient être liées à des caractéristiques spécifiques du processus d’attribution et à une distribution inégale des primes aux unités à forte représentation féminine. De façon générale, les résultats démontrent que l’écart de rémunération selon le genre chez les professeurs de cette université n’est pas totalement expliqué par des différences dans les caractéristiques individuelles des hommes et femmes. L’analyse révèle que l’écart réside dans des différences selon le genre en ce qui a trait à l’accès aux primes de marché et aux chaires de recherches du Canada et, dans une moindre mesure, au rang de professeur titulaire. Aucune différence n’est observée sur le salaire de base et le montant des primes salariales reçues, que celles-ci soient dites de “marché” ou associées à une chaire de recherche du Canada. Qui plus est, on constate que la rémunération est plus faible dans les unités où les femmes sont le mieux représentées. L’accès différencié selon le genre aux primes de marché qui est observé pourrait être lié à certains processus organisationnels qui limitent les probabilités d’octrois à des femmes. Les femmes pourraient être particulièrement désavantagées dans ce système d’octroi, pour plusieurs raisons. L’existence de différences selon le genre en ce qui a trait aux dispositions ou habiletés des individus à négocier leur salaire est évoquée et supposée par certains administrateurs. Un accès limité aux informations concernant la politique de primes pourrait réduire la probabilité que des femmes tentent d’obtenir ces suppléments salariaux. Les directeurs d’unités, qui sont en majorité des hommes, pourraient être biaisées en faveur des professeurs masculins dans leurs évaluations s’ils tendent à favoriser ceux qui leurs ressemblent. Il est également possible que les directeurs d’unités où les femmes sont les mieux représentées n’aient pas reçu d’information sur les primes de marché ou que des traditions disciplinaires les aient rendu réticents à demander des primes.
Resumo:
Étude de cas / Case study
Resumo:
Le vieillissement de la population est un phénomène démographique auquel est confronté le Québec. Dans ce contexte, la protection des personnes inaptes et vulnérables, prendra de plus en plus d'importance au cours des prochaines années. Ces personnes doivent bénéficier d'une protection adéquate lors de l'ouverture d'un régime de protection à leur égard. Considérant que l'ouverture d'un régime de protection au majeur inapte est toujours le résultat d'une décision judiciaire, le greffier de la Cour supérieure du Québec a un rôle fondamental à jouer à l'occasion dans le processus judiciaire. À titre d'officier de justice, il a compétence pour prononcer le jugement d'ouverture du régime de protection. Par conséquent, le présent mémoire consiste à vérifier si les majeurs inaptes sont bien protégés par le rôle et les pouvoirs de l'officier de justice. Pour ce faire, le sujet à l'étude a fait l'objet d'une double approche. Dans un premier temps, le cadre juridique à l'intérieur duquel le greffier doit exécuter ses fonctions sera étudié. Dans un deuxième temps, les résultats et l'analyse d'une enquête empirique auprès des greffiers de la Cour supérieure du Québec seront exposés. Cette démarche permet une approche comparative entre la théorie et la pratique en la matière et permet de constater qu'il peut y avoir un écart entre les deux.