936 resultados para Reliability in automation
Resumo:
The collection of prices for basic goods supply is very important for the population, based on the collection and processing of these data the CLI (Cost Living Index) is calculated among others, helping consumers to shop more rationally and with a clearer view of each product impact of each product on their household budget, not only food, but also cleaning products and personal hygiene ones. Nowadays, the project of collection of prices for basic goods supply is conducted weekly in Botucatu - SP through a spreadsheet. The aim of this work was to develop a software which utilized mobile devices in the data collection and storage phase, concerning the basic goods supply in Botucatu -SP. This was created in order to eliminate the need of taking notes in paper spreadsheets, increasing efficiency and accelerating the data processing. This work utilized the world of mobile technology and development tools, through the platform".NET" - Compact Framework and programming language Visual Basic".NET" was used in the handheld phase, enabling to develop a system using techniques of object oriented programming, with higher speed and reliability in the codes writing. A HP Pavilion dv3 personal computer and an Eten glofish x500+ handheld computer were used. At the end of the software development, collection, data storing and processing in a report, the phase of in loco paper spreadsheets were eliminated and it was possible to verify that the whole process was faster, more consistent, safer, more efficient and the data were more available.
Resumo:
The use of geographic information systems (GIS), combined with advanced analysis technique, enables the standardization and data integration, which are usually from different sources, allowing you to conduct a joint evaluation of the same, providing more efficiency and reliability in the decision-making process to promote the adequacy of land use. This study aimed to analyze the priority areas of the basin agricultural use of the Capivara River, Botucatu, SP, through multicriterial analysis, aiming at conservation of water resources. The results showed that the Geographic Information System Idrisi Selva combined with advanced analysis technique and the weighted linear combination method proved to be an effective tool in the combination of different criteria, allowing the determination of the adequacy of agricultural land use less subjective way. Environmental criteria were shown to be suitable for the combination and multi-criteria analysis, allowing the preparation of the statement of suitability classes for agricultural use and can be useful for regional planning and decision-making by public bodies and environmental agents because the method takes into account the rational use of land and allowing the conservation of hydrics resources.
Resumo:
The modernization of the world made the speed, accuracy and reliability of all existing processes become increasingly necessary. For this evolution to occur every day, the evolution of the equipment was strategic, but not as much as needed. It is necessary for such equipment to ensure its function and, in case of failure, an early diagnosis to prevent loss. Therefore the evolution of maintainability and reliability in equipment is also paramount. Thus, the growth of forms of maintenance was driven by this scenario, forming maintenance philosophies. Among many, there is the RCM, which have its focus on the identification, parameters development and performance preview. One of those methodologies from this idea is the FMEA, process that has been studied and implemented this work, aiming the anticipation of failure modes and guidance for the use of a heat exchanger and a pump. This implementation has the aid of another process of RCM, the PHA, which was also shown and implemented, these results being used to start the FMEA process. The results show the activities with the highest chance of failure, presenting also the measures to be taken to avoid or minimize them. It is shown, in this paper, concern with the valves because they maintain control and system security, and its flaws related to accidents with possible danger to people and the whole system, emphasizing the priority of action
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
The modernization of the world made the speed, accuracy and reliability of all existing processes become increasingly necessary. For this evolution to occur every day, the evolution of the equipment was strategic, but not as much as needed. It is necessary for such equipment to ensure its function and, in case of failure, an early diagnosis to prevent loss. Therefore the evolution of maintainability and reliability in equipment is also paramount. Thus, the growth of forms of maintenance was driven by this scenario, forming maintenance philosophies. Among many, there is the RCM, which have its focus on the identification, parameters development and performance preview. One of those methodologies from this idea is the FMEA, process that has been studied and implemented this work, aiming the anticipation of failure modes and guidance for the use of a heat exchanger and a pump. This implementation has the aid of another process of RCM, the PHA, which was also shown and implemented, these results being used to start the FMEA process. The results show the activities with the highest chance of failure, presenting also the measures to be taken to avoid or minimize them. It is shown, in this paper, concern with the valves because they maintain control and system security, and its flaws related to accidents with possible danger to people and the whole system, emphasizing the priority of action
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
OBJECTIVE: To develop and validate a short health literacy assessment tool for Portuguese-speaking adults. METHODS: The Short Assessment of Health Literacy for Portuguese-speaking Adults is an assessment tool which consists of 50 items that assess an individual's ability to correctly pronounce and understand common medical terms. We evaluated the instrument's psychometric properties in a convenience sample of 226 Brazilian older adults. Construct validity was assessed by correlating the tool scores with years of schooling, self-reported literacy, and global cognitive functioning. Discrimination validity was assessed by testing the tool's accuracy in detecting inadequate health literacy, defined as failure to fully understand standard medical prescriptions. RESULTS: Moderate to high correlations were found in the assessment of construct validity (Spearman's coefficients ranging from 0.63 to 0.76). The instrument showed adequate internal consistency (Cronbach's alpha=0.93) and adequate test-retest reliability (intraclass correlation coefficient=0.95). The area under the receiver operating characteristic curve for detection of inadequate health literacy was 0.82. A version consisting of 18 items was tested and showed similar psychometric properties. CONCLUSIONS: The instrument developed showed good validity and reliability in a sample of Brazilian older adults. It can be used in research and clinical settings for screening inadequate health literacy.
Resumo:
OBJECTIVE: To develop and validate a short health literacy assessment tool for Portuguese-speaking adults. METHODS: The Short Assessment of Health Literacy for Portuguese-speaking Adults is an assessment tool which consists of 50 items that assess an individual's ability to correctly pronounce and understand common medical terms. We evaluated the instrument's psychometric properties in a convenience sample of 226 Brazilian older adults. Construct validity was assessed by correlating the tool scores with years of schooling, self-reported literacy, and global cognitive functioning. Discrimination validity was assessed by testing the tool's accuracy in detecting inadequate health literacy, defined as failure to fully understand standard medical prescriptions. RESULTS: Moderate to high correlations were found in the assessment of construct validity (Spearman's coefficients ranging from 0.63 to 0.76). The instrument showed adequate internal consistency (Cronbach's alpha=0.93) and adequate test-retest reliability (intraclass correlation coefficient=0.95). The area under the receiver operating characteristic curve for detection of inadequate health literacy was 0.82. A version consisting of 18 items was tested and showed similar psychometric properties. CONCLUSIONS: The instrument developed showed good validity and reliability in a sample of Brazilian older adults. It can be used in research and clinical settings for screening inadequate health literacy.
Resumo:
OBJETIVOS: Verificar a prevalência de úlcera por pressão nas unidades de internação de pacientes adultos do Hospital Universitário da Universidade de São Paulo (HU-USP) e verificar a concordância entre observadores na avaliação de risco, por meio da Escala de Braden. MÉTODOS: Estudo exploratório, quantitativo. Os dados foram coletados por seis colaboradoras treinadas que realizaram exame físico e avaliação de risco em 87 pacientes, avaliação esta considerada "padrão ouro". Os dados das avaliações feitas pelas enfermeiras, nos mesmos pacientes, foram coletados dos prontuários. RESULTADOS: verificou-se prevalência de 19,5% no hospital e 63,6% na Unidade de Terapia Intensiva, 15,6% na Clínica Cirúrgica, 13,9% na Clínica Médica e 0% na Semi-Intensiva. Quanto à concordância entre os observadores na avaliação clínica dos pacientes, a percepção sensorial, atividade, mobilidade e fricção/cisalhamento apresentaram fortíssima concordância. Umidade e nutrição, baixa concordância, sugerindo que esses subescores deverão ser discutidos para verificar as causas da controvérsia. CONCLUSÃO: Estudos de prevalência de úlcera por pressão possibilitam verificar a extensão do problema e fornecem subsídios para construção de estratégias e programas de prevenção.
Resumo:
O objetivo desse estudo foi verificar o momento com maior fidedignidade de dados do processo de avaliação da linguagem, para realizar o levantamento do perfil pragmático infantil. Participaram cinco crianças, com desenvolvimento típico de linguagem, e idades entre 7 anos e 1 mês e 8 anos e 11 meses. Foram realizados 150 minutos de gravação, em uma situação de interação da criança com a pesquisadora, divididas em cinco sessões individuais de 30 minutos. Houve análise posterior dos dados, segundo o protocolo de habilidades comunicativas verbais (HCV), sendo delineado o perfil pragmático individual de cada filmagem (30 minutos) e de toda a amostra (150 minutos), para a comparação (sessões 1 a 5 x total geral das sessões) dos índices de fidedignidade (IF) e status de confiabilidade (SC). Para o cálculo do IF e do SC, respectivamente, foram realizadas as análises individuais interobservador e intraobservador. Os resultados apresentados pelas crianças 1 e 2 alcançaram maior IF na sessão 2; os da criança 3 apresentaram valores semelhantes de IF nas sessões 3, 4 e 5; os da criança 4 obtiveram o maior IF nas sessões 1 e 3; e os da criança 5 alcançaram o mesmo valor de IF em todas sessões. Com relação ao SC, a sessão 2 apresentou maior porcentagem de altíssima confiabilidade para a maioria das crianças, seguida da sessão 3. Na análise realizada por categoria de HCV, a sessão 3 apresentou maior SC para as habilidades dialógicas, narrativo-discursivas e total geral de HCV. No geral, observa-se que as sessões 2 e 3 foram as que permitiram alcançar maior IF e SC na análise realizada para delineamento do perfil pragmático infantil.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
The running innovation processes of the microwave transistor technologies, used in the implementation of microwave circuits, have to be supported by the study and development of proper design methodologies which, depending on the applications, will fully exploit the technology potentialities. After the choice of the technology to be used in the particular application, the circuit designer has few degrees of freedom when carrying out his design; in the most cases, due to the technological constrains, all the foundries develop and provide customized processes optimized for a specific performance such as power, low-noise, linearity, broadband etc. For these reasons circuit design is always a “compromise”, an investigation for the best solution to reach a trade off between the desired performances. This approach becomes crucial in the design of microwave systems to be used in satellite applications; the tight space constraints impose to reach the best performances under proper electrical and thermal de-rated conditions, respect to the maximum ratings provided by the used technology, in order to ensure adequate levels of reliability. In particular this work is about one of the most critical components in the front-end of a satellite antenna, the High Power Amplifier (HPA). The HPA is the main power dissipation source and so the element which mostly engrave on space, weight and cost of telecommunication apparatus; it is clear from the above reasons that design strategies addressing optimization of power density, efficiency and reliability are of major concern. Many transactions and publications demonstrate different methods for the design of power amplifiers, highlighting the availability to obtain very good levels of output power, efficiency and gain. Starting from existing knowledge, the target of the research activities summarized in this dissertation was to develop a design methodology capable optimize power amplifier performances complying all the constraints imposed by the space applications, tacking into account the thermal behaviour in the same manner of the power and the efficiency. After a reminder of the existing theories about the power amplifier design, in the first section of this work, the effectiveness of the methodology based on the accurate control of the dynamic Load Line and her shaping will be described, explaining all steps in the design of two different kinds of high power amplifiers. Considering the trade-off between the main performances and reliability issues as the target of the design activity, we will demonstrate that the expected results could be obtained working on the characteristics of the Load Line at the intrinsic terminals of the selected active device. The methodology proposed in this first part is based on the assumption that designer has the availability of an accurate electrical model of the device; the variety of publications about this argument demonstrates that it is so difficult to carry out a CAD model capable to taking into account all the non-ideal phenomena which occur when the amplifier operates at such high frequency and power levels. For that, especially for the emerging technology of Gallium Nitride (GaN), in the second section a new approach for power amplifier design will be described, basing on the experimental characterization of the intrinsic Load Line by means of a low frequency high power measurements bench. Thanks to the possibility to develop my Ph.D. in an academic spin-off, MEC – Microwave Electronics for Communications, the results of this activity has been applied to important research programs requested by space agencies, with the aim support the technological transfer from universities to industrial world and to promote a science-based entrepreneurship. For these reasons the proposed design methodology will be explained basing on many experimental results.
Resumo:
The purpose of this Thesis is to develop a robust and powerful method to classify galaxies from large surveys, in order to establish and confirm the connections between the principal observational parameters of the galaxies (spectral features, colours, morphological indices), and help unveil the evolution of these parameters from $z \sim 1$ to the local Universe. Within the framework of zCOSMOS-bright survey, and making use of its large database of objects ($\sim 10\,000$ galaxies in the redshift range $0 < z \lesssim 1.2$) and its great reliability in redshift and spectral properties determinations, first we adopt and extend the \emph{classification cube method}, as developed by Mignoli et al. (2009), to exploit the bimodal properties of galaxies (spectral, photometric and morphologic) separately, and then combining together these three subclassifications. We use this classification method as a test for a newly devised statistical classification, based on Principal Component Analysis and Unsupervised Fuzzy Partition clustering method (PCA+UFP), which is able to define the galaxy population exploiting their natural global bimodality, considering simultaneously up to 8 different properties. The PCA+UFP analysis is a very powerful and robust tool to probe the nature and the evolution of galaxies in a survey. It allows to define with less uncertainties the classification of galaxies, adding the flexibility to be adapted to different parameters: being a fuzzy classification it avoids the problems due to a hard classification, such as the classification cube presented in the first part of the article. The PCA+UFP method can be easily applied to different datasets: it does not rely on the nature of the data and for this reason it can be successfully employed with others observables (magnitudes, colours) or derived properties (masses, luminosities, SFRs, etc.). The agreement between the two classification cluster definitions is very high. ``Early'' and ``late'' type galaxies are well defined by the spectral, photometric and morphological properties, both considering them in a separate way and then combining the classifications (classification cube) and treating them as a whole (PCA+UFP cluster analysis). Differences arise in the definition of outliers: the classification cube is much more sensitive to single measurement errors or misclassifications in one property than the PCA+UFP cluster analysis, in which errors are ``averaged out'' during the process. This method allowed us to behold the \emph{downsizing} effect taking place in the PC spaces: the migration between the blue cloud towards the red clump happens at higher redshifts for galaxies of larger mass. The determination of $M_{\mathrm{cross}}$ the transition mass is in significant agreement with others values in literature.
Resumo:
L’attività di dottorato qui descritta ha riguardato inizialmente lo sviluppo di biosensori elettrochimici semplificati per la rilevazione di DNA e successivamente lo studio di dispositivi organici ad effetto di campo per la stimolazione e il rilevamento dell’attività bioelettrica di cellule neuronali. Il lavoro di ricerca riguardante il prima parte è stato focalizzato sulla fabbricazione e sulla caratterizzazione di un biosensore a due elettrodi per la rilevazione di DNA solubile , facilmente producibile a livello industriale. Tale sensore infatti, è in grado di leggere livelli diversi di correnti faradiche sulle superfici in oro degli elettrodi, a discrezione di un eventuale ibridizzazione del DNA da analizzare su di esse. I risultati ottenuti riguardo a questo biosensore sono :la paragonabilità dello stesso con i sensori standard a tre elettrodi basati sulla medesima metodica, la possibilità di effettuare due misure in parallelo di uno stesso campione o di 2 diversi campioni su di uno stesso di dispositivo e la buona applicabilità della chimica superficiale a base di tale biosensore a superfici create con tecnologie industriali. Successivamente a tali studi, mi sono focalizzato sull’utilizzo di dispositivi organici ad effetto campo (in particolare OTFT) per lo sviluppo di un biosensore capace di stimolare e registrare l’attività bioelettrica di cellule neuronali. Inizialmente sono state identificate le caratteristiche del materiale organico utilizzato e successivamente del dispositivo fabbricato pre e post esposizione all’ambiente fisiologico. Poi, sono stati effettuati esperimenti per osservare la capacità di stimolare e di leggere i segnali elettrogenici da parte dell’OTFT. I risultati ottenuti da tali studi sono che: il materiale organico ed il dispositivo mantengo le loro caratteristiche morfologiche e funzionali dopo l’esposizione per giorni all’ambiente fisiologico. Inoltre l’OFET in grado di stimolare il cambiamento delle tensioni di membrana cellulari e contemporaneamente di registrare tali variazioni e le eventuali risposte cellulari provocate da esse.
Resumo:
Generalized linear mixed models (GLMMs) provide an elegant framework for the analysis of correlated data. Due to the non-closed form of the likelihood, GLMMs are often fit by computational procedures like penalized quasi-likelihood (PQL). Special cases of these models are generalized linear models (GLMs), which are often fit using algorithms like iterative weighted least squares (IWLS). High computational costs and memory space constraints often make it difficult to apply these iterative procedures to data sets with very large number of cases. This paper proposes a computationally efficient strategy based on the Gauss-Seidel algorithm that iteratively fits sub-models of the GLMM to subsetted versions of the data. Additional gains in efficiency are achieved for Poisson models, commonly used in disease mapping problems, because of their special collapsibility property which allows data reduction through summaries. Convergence of the proposed iterative procedure is guaranteed for canonical link functions. The strategy is applied to investigate the relationship between ischemic heart disease, socioeconomic status and age/gender category in New South Wales, Australia, based on outcome data consisting of approximately 33 million records. A simulation study demonstrates the algorithm's reliability in analyzing a data set with 12 million records for a (non-collapsible) logistic regression model.