733 resultados para Smoothed bootstrap
Resumo:
Background: Oral itraconazole (ITRA) is used for the treatment of allergic bronchopulmonary aspergillosis in patients with cystic fibrosis (CF) because of its antifungal activity against Aspergillus species. ITRA has an active hydroxy-metabolite (OH-ITRA) which has similar antifungal activity. ITRA is a highly lipophilic drug which is available in two different oral formulations, a capsule and an oral solution. It is reported that the oral solution has a 60% higher relative bioavailability. The influence of altered gastric physiology associated with CF on the pharmacokinetics (PK) of ITRA and its metabolite has not been previously evaluated. Objectives: 1) To estimate the population (pop) PK parameters for ITRA and its active metabolite OH-ITRA including relative bioavailability of the parent after administration of the parent by both capsule and solution and 2) to assess the performance of the optimal design. Methods: The study was a cross-over design in which 30 patients received the capsule on the first occasion and 3 days later the solution formulation. The design was constrained to have a maximum of 4 blood samples per occasion for estimation of the popPK of both ITRA and OH-ITRA. The sampling times for the population model were optimized previously using POPT v.2.0.[1] POPT is a series of applications that run under MATLAB and provide an evaluation of the information matrix for a nonlinear mixed effects model given a particular design. In addition it can be used to optimize the design based on evaluation of the determinant of the information matrix. The model details for the design were based on prior information obtained from the literature, which suggested that ITRA may have either linear or non-linear elimination. The optimal sampling times were evaluated to provide information for both competing models for the parent and metabolite and for both capsule and solution simultaneously. Blood samples were assayed by validated HPLC.[2] PopPK modelling was performed using FOCE with interaction under NONMEM, version 5 (level 1.1; GloboMax LLC, Hanover, MD, USA). The PK of ITRA and OH‑ITRA was modelled simultaneously using ADVAN 5. Subsequently three methods were assessed for modelling concentrations less than the LOD (limit of detection). These methods (corresponding to methods 5, 6 & 4 from Beal[3], respectively) were (a) where all values less than LOD were assigned to half of LOD, (b) where the closest missing value that is less than LOD was assigned to half the LOD and all previous (if during absorption) or subsequent (if during elimination) missing samples were deleted, and (c) where the contribution of the expectation of each missing concentration to the likelihood is estimated. The LOD was 0.04 mg/L. The final model evaluation was performed via bootstrap with re-sampling and a visual predictive check. The optimal design and the sampling windows of the study were evaluated for execution errors and for agreement between the observed and predicted standard errors. Dosing regimens were simulated for the capsules and the oral solution to assess their ability to achieve ITRA target trough concentration (Cmin,ss of 0.5-2 mg/L) or a combined Cmin,ss for ITRA and OH-ITRA above 1.5mg/L. Results and Discussion: A total of 241 blood samples were collected and analysed, 94% of them were taken within the defined optimal sampling windows, of which 31% where taken within 5 min of the exact optimal times. Forty six per cent of the ITRA values and 28% of the OH-ITRA values were below LOD. The entire profile after administration of the capsule for five patients was below LOD and therefore the data from this occasion was omitted from estimation. A 2-compartment model with 1st order absorption and elimination best described ITRA PK, with 1st order metabolism of the parent to OH-ITRA. For ITRA the clearance (ClItra/F) was 31.5 L/h; apparent volumes of central and peripheral compartments were 56.7 L and 2090 L, respectively. Absorption rate constants for capsule (kacap) and solution (kasol) were 0.0315 h-1 and 0.125 h-1, respectively. Comparative bioavailability of the capsule was 0.82. There was no evidence of nonlinearity in the popPK of ITRA. No screened covariate significantly improved the fit to the data. The results of the parameter estimates from the final model were comparable between the different methods for accounting for missing data, (M4,5,6)[3] and provided similar parameter estimates. The prospective application of an optimal design was found to be successful. Due to the sampling windows, most of the samples could be collected within the daily hospital routine, but still at times that were near optimal for estimating the popPK parameters. The final model was one of the potential competing models considered in the original design. The asymptotic standard errors provided by NONMEM for the final model and empirical values from bootstrap were similar in magnitude to those predicted from the Fisher Information matrix associated with the D-optimal design. Simulations from the final model showed that the current dosing regimen of 200 mg twice daily (bd) would provide a target Cmin,ss (0.5-2 mg/L) for only 35% of patients when administered as the solution and 31% when administered as capsules. The optimal dosing schedule was 500mg bd for both formulations. The target success for this dosing regimen was 87% for the solution with an NNT=4 compared to capsules. This means, for every 4 patients treated with the solution one additional patient will achieve a target success compared to capsule but at an additional cost of AUD $220 per day. The therapeutic target however is still doubtful and potential risks of these dosing schedules need to be assessed on an individual basis. Conclusion: A model was developed which described the popPK of ITRA and its main active metabolite OH-ITRA in adult CF after administration of both capsule and solution. The relative bioavailability of ITRA from the capsule was 82% that of the solution, but considerably more variable. To incorporate missing data, using the simple Beal method 5 (using half LOD for all samples below LOD) provided comparable results to the more complex but theoretically better Beal method 4 (integration method). The optimal sparse design performed well for estimation of model parameters and provided a good fit to the data.
Resumo:
Objective: To investigate the population pharmacokinetics and the enteral bioavailability of phenytoin in neonates and infants with seizures. Methods: Data (5 mg kg-1 day-1) from 83 patients were obtained retrospectively from the medical records following written ethical approval. A one-compartment model was fitted to the data using NONMEM with FOCE-interaction. Between-subject variability (BSV) and interoccasion variability (IOV) were modelled exponentially together with a log transform-both-sides exponential residual unexplained variance (RUV) model. Covariates in nested models were screened for significance (X2, 1, 0.01). Model validity was determined by bootstrapping with replacement (N=500 samples) from the dataset. Results: The parameters of final pharmacokinetic were: Clearance (L h-1) = 0.826.(current Weight [kg]/70)0.75.(1+0.0692.(Postnatal age [days]-11)); Volume of distribution (L) = 74.2.(current Weight [kg]/70); Enteral bioavailability = 0.76; Absorption rate constant (h-1) = 0.167. BSV for clearance and volume of distribution were 74.2% and 65.6%, respectively. The IOV in clearance was 54.4%. The RUV was 51.1%. Final model parameters deviated from mean bootstrap estimates by
Resumo:
O número de Instituições de ensino e alunos têm aumentado e a efetividade na gestão acadêmica torna-se assunto relevante. Simultaneamente ao aumento de estudantes, a tecnologia da informação tem evoluído rapidamente, o que tem propiciado novas oportunidades de ensino e profusão de informações. Infelizmente, no sentido oposto ao da qualidade de ensino, esse cenário tem propiciado o surgimento e crescimento de uma variedade de situações e oportunidades para que o comportamento academicamente desonesto se desenvolva. Uma possível associação entre desonestidade acadêmica e o comportamento antiético no ambiente de trabalho é defendida por vários autores, alertando que comportamentos éticos dos estudantes podem gerar melhores líderes de organizações no futuro e aconselhando que se estabeleçam universidades provedoras de princípios morais e íntegros. O objetivo deste trabalho é contribuir para o entendimento dos fatores antecedentes da atitude dos alunos em relação à desonestidade acadêmica, por meio da identificação das associações que possam existir entre aspectos individuais e de grupo. Fundamentado inicialmente na Theory of Planned Behavior TPB (Teoria do Comportamento Planejado) de AJZEN (1991), e com base em extensa revisão de literatura, criou-se um modelo de pesquisa instrumentalizado como um pré-teste a estudantes de uma IES particular como forma de operacionalizar os construtos, obtendo-se 116 respostas válidas. Os dados foram obtidos a partir de uma survey eletrônica e analisados por Modelagem com Equações Estruturais, em particular com base no algoritmo Partial Least Squares PLS. As estimativas de coeficientes foram feitas pela técnica Bootstrap, com 1000 reamostragens, com reposição. Com base no pré-teste os resultados indicaram que a percepção das práticas do grupo é especialmente influente no comportamento acadêmico desonesto do indivíduo (Beta = 0,39; p< 0,00), mas também que a idade do aluno é inversamente proporcional à intensidade com que essa desonestidade se manifesta (Beta = -0,24; p<0,00). Adicionalmente, a característica pessoal de idealismo mostrou ser provável um fator de contenção da atitude favorável à desonestidade (Beta =-0,25; p<0,05), mas mecanismos como o desengajamento moral indicam sua provável presença identificada (Beta = 0,25; p<0,05), desfavorecendo o processo de autorregulação do aluno, o que amplia a atitude de desonestidade acadêmica. Optou-se pela técnica de análise multivariada com Modelagem de Equações Estruturais, considerada adequada para análise simultânea de relações entre construtos, e considerada uma técnica de caráter confirmatório, utilizada para determinar a validade do modelo teórico diante dos dados observados. Com algumas reformulações no instrumento, foi aplicada uma nova survey, quanto à coleta de dados foi aplicado um questionário eletrônico operado na plataforma Surveymonkey. O link do questionário foi enviado á uma população de 2000 alunos obtendo como retorno 146 respostas válidas. Nos resultados apresentados na pesquisa final destacam-se a influência da Percepção Social no comportamento da desonestidade acadêmica com coeficiente altamente significante (0,446***), também o desengajamento Moral frente à atitude e a Intenção/Comportamento com resultados expressivos quanto a influência do fator idade, apresentando o coeficiente (-0,156***). O estudo indica a possível existência de várias implicações para o gestor e para a comunidade acadêmica, permitindo desdobramentos em pesquisas futuras
Resumo:
A aceitação e o uso de Tecnologia da Informação (TI) pelo indivíduo têm sido estudadas por diferentes modelos conceituais que, em geral, derivaram de teorias da Psicologia como a TRA Theory of Reasoned Action e a TPB Theory of Planned Behavior, derivada da primeira. Um importante modelo de análise dai derivado, resultado da minuciosa análise de outros 8 modelos anteriores, o UTAUT - Unified Theory of Acceptance and Use of Technology de VENKATESH et. al. (2003) tem sido largamente analisado e validado em vários cenários de tecnologia e ambientes. Este trabalho visa compreender de uma maneira mais ampla dos fatores antecedentes da intenção de uso e comportamento de uso a partir do modelo UTAUT, bem como os fatores que melhores explicam a intenção e o comportamento de uso, assim como a análise de seus moderadores. Em seu desenvolvimento, Venkatesh et al. empreenderam comparações em três etapas de implantação e em dois cenários: na adoção mandatória, aquela em que se deu em ambiente empresarial onde o sistema é requerido para execução de processos e tomada de decisões, e na adoção voluntária, cenário em que a adoção se dá pelo indivíduo. No segundo caso, os autores concluíram que o fator influência social tem baixa magnitude e significância, não se revelando um fator importante na adoção da tecnologia. Este trabalho visa analisar também se o mesmo fenômeno ocorre para adoção que se dá de forma voluntária, mas passível de ser altamente influenciada pelos laços sociais, como o que ocorre entre usuários das redes sociais como Orkut, Facebook, Twitter e Linkedin, especialmente em tecnologias que habilitam ganhos associados ao exercício desses laços, como no caso do uso de sites de compras coletivas tais como Peixe Urbano, Groupon e Clickon. Com base no modelo UTAUT, foi aplicada uma pesquisa e posteriormente foram analisados os resultados de 292 respondentes validados que foram acessados por e-mails e redes sociais. A técnica de análise empregada consistiu do uso de modelagem por equações estruturais, com base no algoritmo PLS Partial Least Square, com bootstrap de 1000 reamostragens. Os resultados demonstraram alta magnitude e significância preditiva sobre a Intenção de uso da tecnologia pelos fatores de Expectativa de Desempenho (0,288@0,1%), Influência Social (0,176@0,1%). Os primeiro, compatível com estudos anteriores. Já a magnitude e significância do último fator resultou amplamente superior ao estudo original de Venkatesh et al. (2003) variando entre 0,02 a 0,04, não significante, dependendo dos dados estarem agrupados ou não (p.465). A principal conclusão deste estudo é que, ao considerarmos o fenômeno das compras coletivas, em um ambiente de adoção voluntária, portanto, o fator social é altamente influente na intenção de uso da tecnologia, o que contrasta fortemente com o estudo original do UTAUT (já que no estudo de Venkatesh et al. (2003) este fator não foi significante) e apresenta várias possibilidades de pesquisas futuras e possíveis implicações gerenciais.
Resumo:
Esta pesquisa apresenta estudo de caso cujo objetivo foi analisar a aceitação do Portal Inovação, identificando os fatores preditivos da intenção comportamental de uso e do comportamento de uso direcionadores da adoção da tecnologia por seus usuários via extensão do Modelo Unificado de Aceitação de Tecnologia, denominado pela sigla UTAUT (Unified Theory of Acceptance and Use of Technololgy) de Venkatesh et al. (2003). O objeto da pesquisa o Portal Inovação foi desenvolvido pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) em parceria com o Centro de Gestão e Estudos Estratégicos (CGEE), Associação Brasileira de Desenvolvimento Industrial (ABDI) e Instituto Stela, visando atender às demandas do Sistema Nacional de Ciência, Tecnologia e Inovação (SNCTI) do País. Para atingir os objetivos propostos, recorreu-se às abordagens qualitativa, que foi subsidiada pelo método estudo de caso (YIN, 2005) e quantitativa, apoiada pela metodologia UTAUT, aplicada a usuários do portal e que contemplou o resultado de 264 respondentes validados. Quanto ao material de análise, utilizou-se da pesquisa bibliográfica sobre governo eletrônico (e-Gov), Internet, Sistema Nacional de Inovação, modelos de aceitação de tecnologia, dados oficiais públicos e legislações atinentes ao setor de inovação tecnológica. A técnica de análise empregada quantitativamente consistiu no uso de modelagem por equações estruturais, com base no algoritmo PLS (Partial Least Square) com bootstrap de 1.000 reamostragens. Os principais resultados obtidos demonstraram alta magnitude e significância preditiva sobre a Intenção Comportamental de Uso do Portal pelos fatores: Expectativa de Desempenho e Influência Social. Além de evidenciarem que as condições facilitadoras impactam significativamente sobre o Comportamento de Uso dos usuários. A conclusão principal do presente estudo é a de que ao considerarmos a aceitação de um portal governamental em que a adoção é voluntária, o fator social é altamente influente na intenção de uso da tecnologia, bem como os aspectos relacionados à produtividade consequente do usuário e o senso de utilidade; além da facilidade de interação e domínio da ferramenta. Tais constatações ensejam em novas perspectivas de pesquisa e estudos no âmbito das ações de e-Gov, bem como no direcionamento adequado do planejamento, monitoramento e avaliação de projetos governamentais.
Resumo:
A organização necessita de um capital humano efetivamente disposto a contribuir com as suas estratégias e metas. Vários estudos já comprovaram que o comprometimento das pessoas influencia nos resultados. O que mais tem relação com o desempenho é o comprometimento afetivo. As lideranças, através dos seus estilos, podem também contribuir para gerar um desempenho e resultados melhores para as organizações. O objetivo desta pesquisa foi analisar a relação entre os estilos de liderança e o comprometimento organizacional afetivo. Utilizando o método quantitativo, instrumento para coleta de dados foi construído um questionário de autopreenchimento composto por três escalas que medem as variáveis da pesquisa. Os dados, todos de natureza numérica, formaram um banco eletrônico que foi analisado por meio de estatística descritiva e multivariadas do teste de correlação de Pearson do software SPSS, versão 19.0. A pesquisa foi realizada com 92 trabalhadores de uma empresa privada na cidade de São Paulo, utilizando a escala de Siqueira (2008) para medir o comprometimento organizacional afetivo dos trabalhadores e a escala de avaliação do estilo gerencial de Melo (2004) para identificar o perfil dos líderes destes trabalhadores na visão dos mesmos, porem com variações em função do tamanho da amostra, reveladas pelo valor do t de Student nos teste de Bootstrap. Foram analisadas as correlações entre os três estilos de liderança tarefa, relacionamento e situacional com o comprometimento organizacional afetivo. As análises revelaram fracas correlações entre os estilos de liderança e o comprometimento organizacional afetivo, sendo significativas (com erro inferior a 5%) as correlações do comprometimento com o estilo tarefa e com o estilo situacional, porém com variações em função do tamanho da amostra. Estes resultados contribuem para o aprimoramento dos processos de gestão de pessoas, sendo úteis para as áreas de Recursos Humanos de maneira geral, a fim de promover melhorias no desenvolvimento das lideranças e no comprometimento das pessoas através das políticas da organização.
Resumo:
La ricerca intende analizzare l’efficacia della spesa pubblica, l’efficienza e le loro determinanti nei settori della Sanità, dell’Istruzione e della Ricerca per 33 paesi dell’area OCSE. L’analisi ha un duplice obiettivo: da un lato un confronto cross country e dall’altro un confronto temporale, prendendo in considerazione il periodo che va dal 1992 al 2011. Il tema della valutazione dell’efficacia e dell’efficienza della spesa pubblica è molto attuale, soprattutto in Europa, sia perché essa incide di quasi il 50% sul PIL, sia a causa della crisi finanziaria del 2008 che ha spinto i governi ad una riduzione dei bugdet e ad un loro uso più oculato. La scelta di concentrare il lavoro di analisi nei settori della Sanità, dell’Istruzione e della Ricerca e Sviluppo deriva da un lato dalla loro peculiarità di attività orientate al cliente (scuole, ospedali, tribunali) dall’altro dal ruolo strategico che essi rappresentano per lo sviluppo economico di un paese. Il lavoro è articolato in tre sezioni: 1. Rassegna dei principali strumenti metodologici utilizzati in letteratura per la misurazione della performance e dell’efficienza della spesa pubblica nei tre settori. 2. Valutazione e confronto dell’efficienza e della performance della spesa pubblica dal punto di vista sia temporale sia cross-country attraverso la costruzione di indicatori di performance e di efficienza della spesa pubblica (per approfondire l'indice dell'efficienza ho applicato la tecnica DEA "bootstrap output oriented" con indicatori di output ed input non simultanei mentre l’evoluzione dell’efficienza tra i periodi 2011-2002 e 2001-1992 è stata analizzata attraverso il calcolo dell’indice di Malmquist). 3. Analisi delle variabili esogene che influenzano l’efficienza della spesa pubblica nei settori Salute, Istruzione e Ricerca e Sviluppo attraverso una regressione Tobit avente come variabile dipendente i punteggi di efficienza DEA output oriented e come variabili esogene alcuni indicatori scelti tra quelli presenti in letteratura: l’Indicatore delle condizioni socioeconomiche delle famiglie (costruito e applicato da OCSE PISA per valutare l’impatto del background familiare nelle performance dell’apprendimento), l’Indicatore di fiducia nel sistema legislativo del paese, l’Indicatore di tutela dei diritti di proprietà, l’Indicatore delle azioni di controllo della corruzione, l’Indicatore di efficacia delle azioni di governo, l’Indicatore della qualità dei regolamenti, il PIL pro-capite. Da questo lavoro emergono risultati interessanti: non sempre alla quantità di risorse impiegate corrisponde il livello massimo di performance raggiungibile. I risultati della DEA evidenziano la media dei punteggi di efficienza corretti di 0,712 e quindi, impiegando la stessa quantità di risorse, si produrrebbe un potenziale miglioramento dell’output generato di circa il 29%. Svezia, Giappone, Finlandia e Germania risultano i paesi più efficienti, più vicini alla frontiera, mentre Slovacchia, Portogallo e Ungheria sono più distanti dalla frontiera con una misura di inefficienza di circa il 40%. Per quanto riguarda il confronto tra l’efficienza della spesa pubblica nei tre settori tra i periodi 1992-2001 e 2002-2011, l’indice di Malmquist mostra risultati interessanti: i paesi che hanno migliorato il loro livello di efficienza sono quelli dell’Est come l’Estonia, la Slovacchia, la Lituania mentre Paesi Bassi, Belgio e Stati Uniti hanno peggiorato la loro posizione. I paesi che risultano efficienti nella DEA come Finlandia, Germania e Svezia sono rimasti sostanzialmente fermi con un indice di Malmquist vicino al valore uno. In conclusione, i risultati della Tobit contengono indicazioni importanti per orientare le scelte dei Governi. Dall’analisi effettuata emerge che la fiducia nelle leggi, la lotta di contrasto alla corruzione, l’efficacia del governo, la tutela dei diritti di proprietà, le condizioni socioeconomiche delle famiglie degli studenti OECD PISA, influenzano positivamente l’efficienza della spesa pubblica nei tre settori indagati. Oltre alla spending review, per aumentare l’efficienza e migliorare la performance della spesa pubblica nei tre settori, è indispensabile per gli Stati la capacità di realizzare delle riforme che siano in grado di garantire il corretto funzionamento delle istituzioni.
Resumo:
The aim in this paper is to replicate and extend the analysis of visual technical patterns by Lo et al. (2000) using data on the UK market. A non-parametric smoother is used to model a nonlinear trend in stock price series. Technical patterns, such as the 'head-and-shoulders' pattern, that are characterised by a sequence of turning points are identified in the smoothed data. Statistical tests are used to determine whether returns conditioned on the technical patterns are different from random returns and, in an extension to the analysis of Lo et al. (2000), whether they can outperform a market benchmark return. For the stocks in the FTSE 100 and FTSE 250 indices over the period 1986 to 2001, we find that technical patterns occur with different frequencies to each other and in different relativities to the frequencies found in the US market. Our extended statistical testing indicates that UK stock returns are less influenced by technical patterns than was the case for US stock returns.
Resumo:
A multi-scale model of edge coding based on normalized Gaussian derivative filters successfully predicts perceived scale (blur) for a wide variety of edge profiles [Georgeson, M. A., May, K. A., Freeman, T. C. A., & Hesse, G. S. (in press). From filters to features: Scale-space analysis of edge and blur coding in human vision. Journal of Vision]. Our model spatially differentiates the luminance profile, half-wave rectifies the 1st derivative, and then differentiates twice more, to give the 3rd derivative of all regions with a positive gradient. This process is implemented by a set of Gaussian derivative filters with a range of scales. Peaks in the inverted normalized 3rd derivative across space and scale indicate the positions and scales of the edges. The edge contrast can be estimated from the height of the peak. The model provides a veridical estimate of the scale and contrast of edges that have a Gaussian integral profile. Therefore, since scale and contrast are independent stimulus parameters, the model predicts that the perceived value of either of these parameters should be unaffected by changes in the other. This prediction was found to be incorrect: reducing the contrast of an edge made it look sharper, and increasing its scale led to a decrease in the perceived contrast. Our model can account for these effects when the simple half-wave rectifier after the 1st derivative is replaced by a smoothed threshold function described by two parameters. For each subject, one pair of parameters provided a satisfactory fit to the data from all the experiments presented here and in the accompanying paper [May, K. A. & Georgeson, M. A. (2007). Added luminance ramp alters perceived edge blur and contrast: A critical test for derivative-based models of edge coding. Vision Research, 47, 1721-1731]. Thus, when we allow for the visual system's insensitivity to very shallow luminance gradients, our multi-scale model can be extended to edge coding over a wide range of contrasts and blurs. © 2007 Elsevier Ltd. All rights reserved.
Resumo:
Edges are key points of information in visual scenes. One important class of models supposes that edges correspond to the steepest parts of the luminance profile, implying that they can be found as peaks and troughs in the response of a gradient (first-derivative) filter, or as zero-crossings (ZCs) in the second-derivative. A variety of multi-scale models are based on this idea. We tested this approach by devising a stimulus that has no local peaks of gradient and no ZCs, at any scale. Our stimulus profile is analogous to the classic Mach-band stimulus, but it is the local luminance gradient (not the absolute luminance) that increases as a linear ramp between two plateaux. The luminance profile is a smoothed triangle wave and is obtained by integrating the gradient profile. Subjects used a cursor to mark the position and polarity of perceived edges. For all the ramp-widths tested, observers marked edges at or close to the corner points in the gradient profile, even though these were not gradient maxima. These new Mach edges correspond to peaks and troughs in the third-derivative. They are analogous to Mach bands - light and dark bars are seen where there are no luminance peaks but there are peaks in the second derivative. Here, peaks in the third derivative were seen as light-to-dark edges, troughs as dark-to-light edges. Thus Mach edges are inconsistent with many standard edge detectors, but are nicely predicted by a new model that uses a (nonlinear) third-derivative operator to find edge points.
Resumo:
With the extensive use of pulse modulation methods in telecommunications, much work has been done in the search for a better utilisation of the transmission channel.The present research is an extension of these investigations. A new modulation method, 'Variable Time-Scale Information Processing', (VTSIP), is proposed.The basic principles of this system have been established, and the main advantages and disadvantages investigated. With the proposed system, comparison circuits detect the instants at which the input signal voltage crosses predetermined amplitude levels.The time intervals between these occurrences are measured digitally and the results are temporarily stored, before being transmitted.After reception, an inverse process enables the original signal to be reconstituted.The advantage of this system is that the irregularities in the rate of information contained in the input signal are smoothed out before transmission, allowing the use of a smaller transmission bandwidth. A disadvantage of the system is the time delay necessarily introduced by the storage process.Another disadvantage is a type of distortion caused by the finite store capacity.A simulation of the system has been made using a standard speech signal, to make some assessment of this distortion. It is concluded that the new system should be an improvement on existing pulse transmission systems, allowing the use of a smaller transmission bandwidth, but introducing a time delay.
Resumo:
This doctoral thesis responds to the need for greater understanding of small businesses and their inherent unique problem-types. Integral to the investigation is the theme that for governments to effectively influence small business, a sound understanding of the factors they are seeking to influence is essential. Moreover, the study, in its recognition of the many shortcomings in management research and, in particular that the research methods and approaches adopted often fail to give adequate understanding of issues under study, attempts to develop an innovative and creative research approach. The aim thus being to produce, not only advances in small business management knowledge from the standpoints of government policy makers and `lq recipient small business, but also insights into future potential research method for the continued development of that knowledge. The origins of the methodology lay in the non-acceptance of traditional philosophical positions in epistemology and ontology, with a philosophical standpoint of internal realism underpinning the research. Internal realism presents the basis for the potential co-existence of qualitative and quantitative research strategy and underlines the crucial contributory role of research method in provision of ultimate factual status of the assertions of research findings. The concept of epistemological bootstrapping is thus used to develop a `lq partial research framework to foothold case study research, thereby avoiding limitations of objectivism and brute inductivism. The major insights and issues highlighted by the `lq bootstrap, guide the researcher around the participant case studies. A novel attempt at contextualist (linked multi-level and processual) analysis was attempted in the major in-depth case study, with two further cases playing a support role and contributing to a balanced emphasis of empirical research within the context of time constraints inherent within part-time research.
Resumo:
This thesis presents a study of how edges are detected and encoded by the human visual system. The study begins with theoretical work on the development of a model of edge processing, and includes psychophysical experiments on humans, and computer simulations of these experiments, using the model. The first chapter reviews the literature on edge processing in biological and machine vision, and introduces the mathematical foundations of this area of research. The second chapter gives a formal presentation of a model of edge perception that detects edges and characterizes their blur, contrast and orientation, using Gaussian derivative templates. This model has previously been shown to accurately predict human performance in blur matching tasks with several different types of edge profile. The model provides veridical estimates of the blur and contrast of edges that have a Gaussian integral profile. Since blur and contrast are independent parameters of Gaussian edges, the model predicts that varying one parameter should not affect perception of the other. Psychophysical experiments showed that this prediction is incorrect: reducing the contrast makes an edge look sharper; increasing the blur reduces the perceived contrast. Both of these effects can be explained by introducing a smoothed threshold to one of the processing stages of the model. It is shown that, with this modification,the model can predict the perceived contrast and blur of a number of edge profiles that differ markedly from the ideal Gaussian edge profiles on which the templates are based. With only a few exceptions, the results from all the experiments on blur and contrast perception can be explained reasonably well using one set of parameters for each subject. In the few cases where the model fails, possible extensions to the model are discussed.
Resumo:
Citation information: Armstrong RA, Davies LN, Dunne MCM & Gilmartin B. Statistical guidelines for clinical studies of human vision. Ophthalmic Physiol Opt 2011, 31, 123-136. doi: 10.1111/j.1475-1313.2010.00815.x ABSTRACT: Statistical analysis of data can be complex and different statisticians may disagree as to the correct approach leading to conflict between authors, editors, and reviewers. The objective of this article is to provide some statistical advice for contributors to optometric and ophthalmic journals, to provide advice specifically relevant to clinical studies of human vision, and to recommend statistical analyses that could be used in a variety of circumstances. In submitting an article, in which quantitative data are reported, authors should describe clearly the statistical procedures that they have used and to justify each stage of the analysis. This is especially important if more complex or 'non-standard' analyses have been carried out. The article begins with some general comments relating to data analysis concerning sample size and 'power', hypothesis testing, parametric and non-parametric variables, 'bootstrap methods', one and two-tail testing, and the Bonferroni correction. More specific advice is then given with reference to particular statistical procedures that can be used on a variety of types of data. Where relevant, examples of correct statistical practice are given with reference to recently published articles in the optometric and ophthalmic literature.
Resumo:
If, as is widely believed, schizophrenia is characterized by abnormalities of brain functional connectivity, then it seems reasonable to expect that different subtypes of schizophrenia could be discriminated in the same way. However, evidence for differences in functional connectivity between the subtypes of schizophrenia is largely lacking and, where it exists, it could be accounted for by clinical differences between the patients (e.g. medication) or by the limitations of the measures used. In this study, we measured EEG functional connectivity in unmedicated male patients diagnosed with either positive or negative syndrome schizophrenia and compared them with age and sex matched healthy controls. Using new methodology (Medkour et al., 2009) based on partial coherence, brain connectivity plots were constructed for positive and negative syndrome patients and controls. Reliable differences in the pattern of functional connectivity were found with both syndromes showing not only an absence of some of the connections that were seen in controls but also the presence of connections that the controls did not show. Comparing connectivity graphs using the Hamming distance, the negative-syndrome patients were found to be more distant from the controls than were the positive syndrome patients. Bootstrap distributions of these distances were created which showed a significant difference in the mean distances that was consistent with the observation that negative-syndrome diagnosis is associated with a more severe form of schizophrenia. We conclude that schizophrenia is characterized by widespread changes in functional connectivity with negative syndrome patients showing a more extreme pattern of abnormality than positive syndrome patients.