903 resultados para Linux kernel
Resumo:
O material apresenta o sistema de arquivos como coleção nomeada de dados e manipulada como unidade. Destaca o papel e características dos sistemas de arquivos como parte integrante do Sistema Operacional e sua importância para a organização e gerenciamento de dados. Por fim, o material apresenta ainda mecanismos de cópia de segurança (backup), recuperação e integridade de um sistema de arquivos; servidores de arquivos e sistemas distribuídos; além de sistemas de arquivos suportados pelo Windows e Linux.
Resumo:
O material apresenta as chamadas de sistema, ou system calls, que são rotinas de serviço oferecidas por um sistema operacional aos programas. Além de escalonar o uso do(s) processador(es) para a execução das instruções dos processos, o Sistema Operacional tem a função de prover serviços a esses processos. O material destaca ainda o código executado pelas chamadas de sistema que reside na memória; a portabilidade dos programas; e os tipos de chamadas de sistema nos sistemas operacionais Microsoft, Unix e Linux.
Resumo:
O material apresenta a sincronização de threads no Windows, as vantagens do uso de padrões no projeto com thread,e assuntos como: problemas com threads, Race Condition & Deadlock, métodos de sincronização (WaitForSingleObject e WaitForMultipleObject), Seção Crítica, e Objetos do Kernel. O material também destaca o armazenamento volatile; Mutex e CreateMutex; Objeto Semaphore, CreateSemaphore e ReleaseSemaphore.
Resumo:
A videoaula apresenta os principais conceitos sobre processos e threads com destaque para estados de processo e transições, blocos de controle de processos e descritores, chaveamento de processos e troca de contexto, comunicação interprocessos (IPC), processos no Unix, semelhanças e diferenças entre processos e threads, o ciclo de vida de um thread e, por fim, conceitos básicos sobre threads POSIX, Linux, Windows XP e Java.
Resumo:
Na análise funcional de imagens do cérebro podem utilizar-se diferentes métodos na identificação de zonas de activação. Tem havido uma evolução desde o método de correlação [19], para outros métodos [9] [14] até o método baseado no modelo linear generalizado que é mais comum ser utilizado hoje e que levou ao pacote de software SPM [15]. Deve-se principalmente à versatilidade que o método tem em realizar testes com diferentes objectivos. Têm sido publicados alguns estudos comparativos. Poucos têm sido quantitativos [20] e quando o são, o número de métodos testados é reduzido[22]. Há muitos estudos comparativos do ponto de vista da estatística envolvida (da matemática) mas que têm em geral apenas ns académicos. Um objectivo deste estudo é comparar os resultados obtidos por diferentes métodos. É de particular interesse averiguar o comportamento de cada método na fronteira do local de activação. As diferenças serão avaliadas numericamente para os seguintes métodos clássicos: t de Student, coeficiente de correlação e o modelo linear generalizado. Três novos métodos são também propostos - o método de picos de Fourier, o método de sobreposição e o método de amplitude. O segundo pode ser aplicado para o melhoramento dos métodos de t de Student, coe ciente de correlação e modelo linear generalizado. Ele pode no entanto, também manter-se como um método de análise independente. A influência exercida em cada método pelos parâmetros pertinentes é também medida. É adoptado um conjunto de dados clínicos que está amplamente estudado e documentado. Desta forma elimina-se a possibilidade dos resultados obtidos serem interpretados como sendo específicos do caso em estudo. Há situações em que a influência do método utilizado na identificação das áreas de activação de imagens funcionais do cérebro é crucial. Tal acontece, por exemplo, quando um tumor desenvolve-se perto de uma zona de activação responsável por uma função importante . Para o cirurgião tornase indispensável avaliar se existe alguma sobreposição. A escolha de um dos métodos disponíveis poderá ter infuência sobre a decisão final. Se o método escolhido for mais conservador, pode verificar-se sobreposição e eliminar-se a possibilidade de cirurgia. Porém, se o método for mais restritivo a decisão final pode ser favorável à cirurgia. Artigos recentes têm suportado a ideia de que a ressonância magnética funcional é de facto muito útil no processo de decisão pré-operatório [12].O segundo objectivo do estudo é então avaliar a sobreposição entre um volume de activação e o volume do tumor. Os programas informáticos de análise funcional disponíveis são variados em vários aspectos: na plataforma em que funcionam (macintosh, linux, windows ou outras), na linguagem em que foram desenvolvidos (e.g. c+motif, c+matlab, matlab, etc.) no tratamento inicial dos dados (antes da aplicação do método de análise), no formato das imagens e no(s) método(s) de análise escolhido(s). Este facto di culta qualquer tentativa de comparação. À partida esta poderá apenas ser qualitativa. Uma comparação quantitativa implicaria a necessidade de ocorrerem três factos: o utilizador tem acesso ao código do programa, sabe programar nas diferentes linguagens e tem licença de utilização de software comercial (e.g. matlab). Sendo assim foi decidido adoptar uma estratégia unificadora. Ou seja, criar um novo programa desenvolvido numa linguagem independente da plataforma, que não utilize software comercial e que permita aplicar (e comparar quantitativamente) diferentes métodos de análise funcional. A linguagem escolhida foi o JAVA. O programa desenvolvido no âmbito desta tese chama-se Cérebro.
Resumo:
A resistência a múltiplos fármacos é um grande problema na terapia anti-cancerígena, sendo a glicoproteína-P (P-gp) uma das responsáveis por esta resistência. A realização deste trabalho incidiu principalmente no desenvolvimento de modelos matemáticos/estatísticos e “químicos”. Para os modelos matemáticos/estatísticos utilizamos métodos de Machine Learning como o Support Vector Machine (SVM) e o Random Forest, (RF) em relação aos modelos químicos utilizou-se farmacóforos. Os métodos acima mencionados foram aplicados a diversas proteínas P-gp, p53 e complexo p53-MDM2, utilizando duas famílias: as pifitrinas para a p53 e flavonóides para P-gp e, em menor medida, um grupo diversificado de moléculas de diversas famílias químicas. Nos modelos obtidos pelo SVM quando aplicados à P-gp e à família dos flavonóides, obtivemos bons valores através do kernel Radial Basis Function (RBF), com precisão de conjunto de treino de 94% e especificidade de 96%. Quanto ao conjunto de teste com previsão de 70% e especificidade de 67%, sendo que o número de falsos negativos foi o mais baixo comparativamente aos restantes kernels. Aplicando o RF à família dos flavonóides verificou-se que o conjunto de treino apresenta 86% de precisão e uma especificidade de 90%, quanto ao conjunto de teste obtivemos uma previsão de 70% e uma especificidade de 60%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Repetindo o procedimento anterior (RF) e utilizando um total de 63 descritores, os resultados apresentaram valores inferiores obtendo-se para o conjunto de treino 79% de precisão e 82% de especificidade. Aplicando o modelo ao conjunto de teste obteve-se 70% de previsão e 60% de especificidade. Comparando os dois métodos, escolhemos o método SVM com o kernel RBF como modelo que nos garante os melhores resultados de classificação. Aplicamos o método SVM à P-gp e a um conjunto de moléculas não flavonóides que são transportados pela P-gp, obteve-se bons valores através do kernel RBF, com precisão de conjunto de treino de 95% e especificidade de 93%. Quanto ao conjunto de teste, obtivemos uma previsão de 70% e uma especificidade de 69%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Aplicou-se o método do farmacóforo a três alvos, sendo estes, um conjunto de inibidores flavonóides e de substratos não flavonóides para a P-gp, um grupo de piftrinas para a p53 e um conjunto diversificado de estruturas para a ligação da p53-MDM2. Em cada um dos quatro modelos de farmacóforos obtidos identificou-se três características, sendo que as características referentes ao anel aromático e ao dador de ligações de hidrogénio estão presentes em todos os modelos obtidos. Realizando o rastreio em diversas bases de dados utilizando os modelos, obtivemos hits com uma grande diversidade estrutural.
Resumo:
The one which is considered the standard model of theory change was presented in [AGM85] and is known as the AGM model. In particular, that paper introduced the class of partial meet contractions. In subsequent works several alternative constructive models for that same class of functions were presented, e.g.: safe/kernel contractions ([AM85, Han94]), system of spheres-based contractions ([Gro88]) and epistemic entrenchment-based contractions ([G ar88, GM88]). Besides, several generalizations of such model were investigated. In that regard we emphasise the presentation of models which accounted for contractions by sets of sentences rather than only by a single sentence, i.e. multiple contractions. However, until now, only two of the above mentioned models have been generalized in the sense of addressing the case of contractions by sets of sentences: The partial meet multiple contractions were presented in [Han89, FH94], while the kernel multiple contractions were introduced in [FSS03]. In this thesis we propose two new constructive models of multiple contraction functions, namely the system of spheres-based and the epistemic entrenchment-based multiple contractions which generalize the models of system of spheres-based and of epistemic entrenchment-based contractions, respectively, to the case of contractions (of theories) by sets of sentences. Furthermore, analogously to what is the case in what concerns the corresponding classes of contraction functions by one single sentence, those two classes are identical and constitute a subclass of the class of partial meet multiple contractions. Additionally, and as the rst step of the procedure that is here followed to obtain an adequate de nition for the system of spheres-based multiple contractions, we present a possible worlds semantics for the partial meet multiple contractions analogous to the one proposed in [Gro88] for the partial meet contractions (by one single sentence). Finally, we present yet an axiomatic characterization for the new class(es) of multiple contraction functions that are here introduced.
Resumo:
Este trabalho foi realizado na Universidade da Madeira, no âmbito do Mestrado em Engenharia Informática, tendo como título “Implementação de um sistema autónomo para a geração de visualizações 3D de dados ambientais”. A visualização 3D tem vindo a ganhar terreno em áreas como o entretenimento, medicina, arquitetura e desenho de equipamentos, entre outros. Relativamente à visualização de dados ambientais (oceano e atmosfera) em 3D, esta é uma área pouco explorada. Como tal, foi proposto o estudo e criação de um sistema autónomo capaz de gerar imagens 3D de dados ambientais e disponibilizar as mesmas na web. O estudo iniciou-se com testes às ferramentas que permitem a visualização 3D de dados ambientais, de forma a escolher a que mais se adequa ao sistema a implementar. Após diversos testes às várias ferramentas, a que mais se destacou foi o IDV (Integrated Data Visualization), pelas suas funcionalidades e capacidade de ser executado de forma automática. A implementação do sistema foi efetuada ao longo de diversas etapas: pré-processamento dos dados; escolha das visualizações a disponibilizar na web; escrita do script responsável pelo processo; criação das páginas web para visualização das imagens e implementação de todo o sistema em ambiente Linux. Este sistema foi desenvolvido tendo em conta a adição de novas visualizações, assim como a alteração das visualizações existentes. A possibilidade de adicionar/alterar visualizações de forma simples também foi tida em conta, de forma a não ser necessário reestruturar todo o sistema.
Resumo:
Organizations are Complex systems. A conceptual model of the enterprise is needed that is: coherent the distinguished aspect models constitute a logical and truly integral comprehensive all relevant issues are covered consistent the aspect models are free from contradictions or irregularities concise no superfluous matters are contained in it essential it shows only the essence of the enterprise, i.e., the model abstracts from all realization and implementation issues. The world is in great need for transparency about the operation of all the systems we daily work with, ranging from the domestic appliances to the big societal institutions. In this context the field of enterprise ontology has emerged with the aim to create models that help to understand the essence of the construction and operation of complete systems; more specifically, of enterprises. Enterprise ontology arises in the way to look through the distracting and confusing appearance of an enterprise right into its deep kernel. This, from the perspective of the system designer gives him the tools needed to design a successful system in a way that’s reflects the desires and needs of the workers of the enterprise. This project’s context is the use of DEMO (Design and Engineering Methodology for Organizations) for (re)designing or (re)engineering of an enterprise, namely a process of the construction department of a city hall, the lack of a well-founded theory about the construction and operation of this processes that was the motivation behind this work. The purpose of studying applying the DEMO theory and method was to optimize the process, automating it as much as possible, while reducing paper and time spent between tasks and provide a better service to the citizens.
Resumo:
In the present time, public organizations are employing more and more solutions that uses information technology in order to ofer more transparency and better services for all citizens. Integrated Systems are IT which carry in their kernel features of integration and the use of a unique database. These systems bring several benefits and face some obstacles that make their adoption difficult. The conversion to a integrated system may take years and, thus, the study of the adoption of this IT in public sector organizations become very stimulant due to some peculiarities of this sector and the features of this technology. First of all, information about the particular integrated system in study and about its process of conversion are offered. Then, the researcher designs the configuration of the conversion process aim of this study the agents envolved and the moments and the tools used to support the process in order to elaborate the methodology of the conversion process understood as the set of procedures and tools used during all the conversion process. After this, the researcher points out, together with all the members of the conversion team, the negative and positive factors during the project. Finally, these factors were analysed through the Hospitality Theory lens which, in the researcher opinion, was very useful to understand the elements, events and moments that interfered in the project. The results consolidated empirically the Hospitality Theory presumptions, showing yet a limitation of this theory in the case in study
Resumo:
The Brazil is the third largest producer of cashew nuts in the world. Despite the social and economic importance of the cashew nut, its production is still carried out artisanally. One of the main problems encountered in the cashew production chain are the conditions under which the roasting of the nut occurs to obtain the kernel from the shell. In the present study was conducted a biomonitoring of the genotoxic and cytotoxicity effects associated with the elements from the cashew nut roasting in João Câmara - RN, semi-arid region of Brazil. To assess the genotoxic was used the bioassay of micronucleus (MN) in Tradescantia pallida. In addition, it was performed a comparative between the Tradescantia pallida and KU-20 and other biomarkers of DNA damage, such as the nucleoplasmic bridges (NBP) and nuclear fragments (NF) were quantified. The levels of particulate matter (PM1.0, PM2.5, PM10) and black carbon (BC) were also measured and the inorganic chemical composition of the PM2.5 collected was determined using X-ray fluorescence spectrometry analysis and the assessment of the cytotoxicity by MTT assay and exclusion method by trypan blue. . For this purpose, were chosen: the Amarelão community where the roasting occurs and the Santa Luzia farm an area without influence of this process. The mean value of PM2.5 (Jan 2124.2 μg/m3; May 1022.2 μg/m3; Sep 1291.9 μg/m3) and BC (Jan 363.6 μg/m3; May 70.0 μg/m3; Sep 69.4 μg/m3) as well as the concentration of the elements Al, Si, P, S, Cl, K, Ca, Ti, Cr, Mn, Fe, Ni, Cu, Zn, Se, Br and Pb obtained at Amarelão was significantly higher than at Santa Luzia farm. The genotoxicity tests with T. pallida indicated a significant increase in the number of MN, NBP and NF and it was found a negative correlation between the frequency of these biomarkers and the rainfall. The concentrations of 200 μg/mL and 400 μg/mL of PM2.5 were cytotoxic to MRC-5 cells. All together, the results indicated genotoxicity and citotoxicity for the community of Amarelão, and the high rates of PM2.5 considered a potential contributor to this effect, mainly by the high presence of transition metals, especially Fe, Ni, Cu, Cr and Zn, these elements have the potential to cause DNA damage. Other nuclear alterations, such as the NPBs and NFs may be used as effective biomarkers of DNA damage in tetrads of Tradescantia pallida. The results of this study enabled the identification of a serious occupational problem. Accordingly, preventative measures and better practices should be adopted to improve both the activity and the quality of life of the population. These measures are of fundamental importance for the sustainable development of this activity.
Resumo:
INTRODUÇÃO: O vírus da dengue é transmitido pela picada do mosquito Aedes aegypti e, o atual programa de controle não atinge o objetivo de impedir sua transmissão. Este trabalho objetivou analisar a relação entre a distribuição espaço-temporal de casos de dengue e os indicadores larvários no município de Tupã, de janeiro de 2004 a dezembro de 2007. MÉTODOS: Foram construídos indicadores larvários por quarteirão e totalidade do município. Utilizou-se o método cross-lagged correlation para avaliar a correlação entre casos de dengue e indicadores larvários. Foi utilizado estimador kernel para análise espacial. RESULTADOS: A correlação cruzada defasada entre casos de dengue e indicadores larvários foi significativa. Os mapas do estimador Kernel da positividade de recipientes indicam uma distribuição heterogênea, ao longo do período estudado. Nos dois anos de transmissão, a epidemia ocorreu em diferentes regiões. CONCLUSÕES: Não ficou evidenciada relação espacial entre infestação larvária e ocorrência de dengue. A incorporação de técnicas de geoprocessamento e análise espacial no programa, desde que utilizados imediatamente após a realização das atividades, podem contribuir com as ações de controle, indicando os aglomerados espaciais de maior incidência.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The objective of this project was to study the influence of surcharge pressure and moisture content on the compressive behavior and bulk density of soybeans. Three varieties were selected with varying dimensions and shapes. Moisture contents of 10.5, 15.0, and 20% were tested at nine surcharge pressures in the range from 0 to 82.8 kPa. Results indicated that the bulk densities of different soybean varieties have similar behavior with respect to pressure level and moisture content but that the magnitude of bulk density was influenced by variety, Bulk density was influenced by both pressure level and moisture content. The four-element Burger model was found to adequately describe the bulk density of soybeans as a function of pressure for all varieties and moisture levels.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)