865 resultados para Large amounts


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Coupled map lattices (CML) can describe many relaxation and optimization algorithms currently used in image processing. We recently introduced the ‘‘plastic‐CML’’ as a paradigm to extract (segment) objects in an image. Here, the image is applied by a set of forces to a metal sheet which is allowed to undergo plastic deformation parallel to the applied forces. In this paper we present an analysis of our ‘‘plastic‐CML’’ in one and two dimensions, deriving the nature and stability of its stationary solutions. We also detail how to use the CML in image processing, how to set the system parameters and present examples of it at work. We conclude that the plastic‐CML is able to segment images with large amounts of noise and large dynamic range of pixel values, and is suitable for a very large scale integration(VLSI) implementation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A produção de combustível derivado de resíduos (CDR) resultou de uma decisão política que permitiu a instalação em Portugal de um significativo conjunto de processos, cuja avaliação técnico-económica e ambiental pode já ser feita. Este trabalho faz uma avaliação técnica e ambiental da linha de produção de CDR da Recivalongo. A avaliação técnica consistiu na análise dos caudais de material que entraram na linha de produção, na quantidade de CDR produzido, contabilizando também os gastos de recursos da linha (energia e materiais auxiliares). A avaliação da qualidade de CDR produzido a partir do ensaio laboratorial representou também uma parte muito significativa do trabalho produzido. A avaliação ambiental foi efetuada com base na metodologia da Avaliação de Ciclo de Vida (ACV). Os resultados obtidos permitiram concluir que o processo da Recivalongo transforma 69% do material de entrada, recuperando 2% em metais ferrosos e rejeitando para aterro a restante fração de 29%. As análises efetuadas ao CDR mostraram que apresenta um PCI compreendido entre 17 e 20 MJ/kg; o teor em cloro está compreendido entre 0,2 e 0,8% Conclui-se que neste processo o parâmetro mais difícil de controlar é o teor em cloro no CDR, pois existe uma grande diversidade de resíduos com grandes quantidades de cloro na sua constituição e que por muitas vezes são difíceis de identificar e/ou separar na primeira fase do tratamento dos resíduos. Da análise ciclo de vida efetuada à produção de CDR pode-se afirmar que esta operação de gestão de resíduos apresenta uma mais-valia quando comparada com a deposição dos resíduos em aterro, não sendo a diferença entre destinos tão significativa quanto o esperado. Desta avaliação pode concluir-se que a instalação operou muito abaixo da sua capacidade, sendo esta considerada uma das melhores linhas de produção de CDR a nível nacional.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Terrestrial remote sensing imagery involves the acquisition of information from the Earth's surface without physical contact with the area under study. Among the remote sensing modalities, hyperspectral imaging has recently emerged as a powerful passive technology. This technology has been widely used in the fields of urban and regional planning, water resource management, environmental monitoring, food safety, counterfeit drugs detection, oil spill and other types of chemical contamination detection, biological hazards prevention, and target detection for military and security purposes [2-9]. Hyperspectral sensors sample the reflected solar radiation from the Earth surface in the portion of the spectrum extending from the visible region through the near-infrared and mid-infrared (wavelengths between 0.3 and 2.5 µm) in hundreds of narrow (of the order of 10 nm) contiguous bands [10]. This high spectral resolution can be used for object detection and for discriminating between different objects based on their spectral xharacteristics [6]. However, this huge spectral resolution yields large amounts of data to be processed. For example, the Airbone Visible/Infrared Imaging Spectrometer (AVIRIS) [11] collects a 512 (along track) X 614 (across track) X 224 (bands) X 12 (bits) data cube in 5 s, corresponding to about 140 MBs. Similar data collection ratios are achieved by other spectrometers [12]. Such huge data volumes put stringent requirements on communications, storage, and processing. The problem of signal sbspace identification of hyperspectral data represents a crucial first step in many hypersctral processing algorithms such as target detection, change detection, classification, and unmixing. The identification of this subspace enables a correct dimensionality reduction (DR) yelding gains in data storage and retrieval and in computational time and complexity. Additionally, DR may also improve algorithms performance since it reduce data dimensionality without losses in the useful signal components. The computation of statistical estimates is a relevant example of the advantages of DR, since the number of samples required to obtain accurate estimates increases drastically with the dimmensionality of the data (Hughes phnomenon) [13].

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Una alternativa para la producción de biocombustibles consiste en la transformación de residuos lignocelulósicos, entre los que se encuentran biomasas maderables y no maderables. Colombia al ser un país rico en recursos agrícolas genera grandes cantidades de residuos provenientes de monocultivos como es el café, la caña de azúcar, el banano entre otros. Los residuos de banano se producen en zonas en donde el acceso a la energía es escaso y el tratamiento actual dado a estos residuos se centra en los biológicos buscando un producto que ayude a disminuir la aplicación de fertilizantes a la tierra. Con este proyecto se busca estudiar el potencial aprovechamiento de estos residuos para su implementación como biocombustible para la combustión y obtener energía a partir de los mismos. En este trabajo se realizó una caracterización de los residuos de la planta del banano (pseudotallo y hoja) mediante análisis termogravimétrico con una termobalanza TA Instrument TGA Q500IF, con el fin de definir el contenido de los tres componentes principales (hemicelulosa, celulosa y lignina). Los experimentos fueron realizados bajo condiciones de pirólisis y por medio de un algoritmo implementado con la herramienta Scilab. Además, el objetivo fue desarrollar una herramienta para determinar los contenidos de cenizas, contenido de humedad, contenido de residuo carbonoso y contenidos de hemicelulosa, celulosa y lignina para un reactor de combustión desde un análisis termogravimétrico. Los valores encontrados permiten concluir que tanto el pseudotallo como la hoja de la planta de banano son residuos potenciales de aprovechamiento en el proceso de combustión con fines de generación de energía.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nanocomposite energetics are a relatively new class of materials that combine nanoscale fuels and oxidizers to allow for the rapid release of large amounts of energy. In thermite systems (metal fuel with metal oxide oxidizer), the use of nanomaterials has been illustrated to increase reactivity by multiple orders of magnitude as a result of the higher specific surface area and smaller diffusion length scales. However, the highly dynamic and nanoscale processes intrinsic to these materials, as well as heating rate dependencies, have limited our understanding of the underlying processes that control reaction and propagation. For my dissertation, I have employed a variety of experimental approaches that have allowed me to probe these processes at heating rates representative of free combustion with the goal of understanding the fundamental mechanisms. Dynamic transmission electron microscopy (DTEM) was used to study the in situ morphological change that occurs in nanocomposite thermite materials subjected to rapid (10^11 K/s) heating. Aluminum nanoparticle (Al-NP) aggregates were found to lose their nanostructure through coalescence in as little as 10 ns, which is much faster than any other timescale of combustion. Further study of nanoscale reaction with CuO determined that a condensed phase interfacial reaction could occur within 0.5-5 µs in a manner consistent with bulk reaction, which supports that this mechanism plays a dominant role in the overall reaction process. Ta nanocomposites were also studied to determine if a high melting point (3280 K) affects the loss of nanostructure and rate of reaction. The condensed phase reaction pathway was further explored using reactive multilayers sputter deposited onto thin Pt wires to allow for temperature jump (T-Jump) heating at rates of ~5x10^5 K/s. High speed video and a time of flight mass spectrometry (TOFMS) were used to observe ignition temperature and speciation as a function of bilayer thickness. The ignition process was modeled and a low activation energy for effective diffusivity was determined. T-Jump TOFMS along with constant volume combustion cell studies were also used to determine the effect of gas release in nanoparticle systems by comparing the reaction properties of CuO and Cu2O.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

MELO, Maxymme Mendes de ; PINHEIRO, Andrea Santos ; NASCIMENTO, R. M. ; MARTINELLI, Antonio Eduardo ; DUTRA, Ricardo Peixoto Suassuna ; MELO, Marcus Antônio de Freitas . Análise microestrutural de misturas cerâmicas de grês Porcelanato com adição de chamote de telhas cerâmicas. Cerâmica (São Paulo. Impresso), v. 55, p. 356-364, 2009

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Résumé: Le surpoids et l’obésité dans la population pédiatrique sont des préoccupations grandissantes à l’échelle mondiale. Actuellement, au Canada, près de 21 % des jeunes Canadiens âgés de 2 à 5 ans présentent un surpoids et malheureusement, 6 % d’entre eux souffrent d’obésité. De plus, 80 % de ces enfants risquent d’être obèses à l’âge adulte, ce qui mène à plusieurs impacts sur la santé. Afin de prévenir l’obésité infantile, il est important d’identifier des facteurs de risques, notamment ceux se produisant tôt dans la vie. Plusieurs études ont démontré l’importance de l’environnement fœtal dans l’établissement de la santé métabolique à long terme. Le poids à la naissance a souvent été utilisé comme marqueur de l’exposition prénatale. Cependant, le poids à la naissance n’est qu’un marqueur grossier. L’adiposité à la naissance a été identifiée comme un facteur de risque plus important puisqu’elle permet de prédire de l’adiposité durant l’enfance. Les deux déterminants maternels majeurs de la croissance fœtale sont le statut pondéral et la glycémie maternelle. Récemment, une adipokine a été suggérée comme un déterminant potentiel dans la programmation fœtale de l’obésité. La leptine, qui est produite par les adipocytes, joue un rôle important dans la balance énergétique, mais elle semble aussi importante dans le développement de l’obésité postnatale. Durant la grossesse, le placenta produit une large quantité de leptine et la majorité est sécrétée du côté maternel. Appuyés par le fait que la leptine maternelle circulante est le reflet de la sécrétion placentaire de leptine, nous avons émis l’hypothèse que la leptine maternelle serait associée à l’adiposité du nouveau-né, et ce, indépendamment de la glycémie maternelle. Nous avons étudié la leptine durant l’hyperglycémie provoquée par voie orale (HGPO) chez les femmes enceintes au 2e trimestre. Nous avons montré, chez les femmes en surpoids ou obèse, qu’une plus haute leptine maternelle était lié à une adiposité néonatale augmentée à la naissance. D’un autre côté, chez les femmes minces, une glycémie élevée était liée à une adiposité néonatale augmentée. Ces associations sont indépendantes de la parité, du statut tabagique, du gain de poids durant la grossesse, des triglycérides maternels, du mode d’accouchement, du sexe du nouveau-né et de l’âge gestationnel à la naissance. Ces résultats suggèrent une régulation différentielle entre ces deux marqueurs métaboliques maternels et l’adiposité néonatale, selon le statut pondéral pré-grossesse.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The explosion of the Deepwater Horizon (DWH) oil platform resulted in large amounts of crude oil and dispersant Corexit 9500A® released into the Gulf of Mexico and coincided with the spawning season of the oyster, Crassostrea virginica. The effects of exposing gametes and embryos of C. virginica to dispersant alone (Corexit), mechanically (HEWAF) and chemically dispersed (CEWAF) DWH oil were evaluated. Fertilization success and the morphological development, growth, and survival of larvae were assessed. Gamete exposure reduced fertilization (HEWAF: EC201 h = 1650 μg tPAH50 L− 1; CEWAF: EC201 h = 19.4 μg tPAH50 L− 1; Corexit: EC201 h = 6.9 mg L− 1). CEWAF and Corexit showed a similar toxicity on early life stages at equivalent nominal concentrations. Oysters exposed from gametes to CEWAF and Corexit experienced more deleterious effects than oysters exposed from embryos. Results suggest the presence of oil and dispersant during oyster spawning season may interfere with larval development and subsequent recruitment.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Universities are institutions that generate and manipulate large amounts of data as a result of the multiple functions they perform, of the amount of involved professionals and students they attend. Information gathered from these data is used, for example, for operational activities and to support decision-making by managers. To assist managers in accomplishing their tasks, the Information Systems (IS) are presented as tools that offer features aiming to improve the performance of its users, assist with routine tasks and provide support to decision-making. The purpose of this research is to evaluate the influence of the users features and of the task in the success of IS. The study is of a descriptive-exploratory nature, therefore, the constructs used to define the conceptual model of the research are known and previously validated. However, individual features of users and of the task are IS success antecedents. In order to test the influence of these antecedents, it was developed a decision support IS that uses the Multicriteria Decision Aid Constructivist (MCDA-C) methodology with the participation and involvement of users. The sample consisted of managers and former managers of UTFPR Campus Pato Branco who work or have worked in teaching activities, research, extension and management. For data collection an experiment was conducted in the computer lab of the Campus Pato Branco in order to verify the hypotheses of the research. The experiment consisted of performing a distribution task of teaching positions between the academic departments using the IS developed. The task involved decision-making related to management activities. The data that fed the system used were real, from the Campus itself. A questionnaire was answered by the participants of the experiment in order to obtain data to verify the research hypotheses. The results obtained from the data analysis partially confirmed the influence of the individual features in IS success and fully confirmed the influence of task features. The data collected failed to support significant ratio between the individual features and the individual impact. For many of the participants the first contact with the IS was during the experiment, which indicates the lack of experience with the system. Regarding the success of IS, the data revealed that there is no significance in the relationship between Information Quality (IQ) and Individual Impact (II). It is noteworthy that the IS used in the experiment is to support decision-making and the information provided by this system are strictly quantitative, which may have caused some conflict in the analysis of the criteria involved in the decision-making process. This is because the criteria of teaching, research, extension and management are interconnected such that one reflects on another. Thus, the opinion of the managers does not depend exclusively on quantitative data, but also of knowledge and value judgment that each manager has about the problem to be solved.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A fixação biológica de dióxido de carbono por microalgas é considerada a melhor forma de fixar CO2. Dentre os microrganismos utilizados destaca-se Spirulina platensis devido às suas altas taxas de fixação de CO2 e variedade de aplicações da biomassa gerada. A aplicação de modelos e simulações pode auxiliar na previsão de custos e na escolha das condições ideais de cultivo. Este trabalho teve como objetivo etsabelecer um modelo cinético no qual a iluminância é o fator limitante para o crescimento da microalga Spirulina platensis. A fim de validar o modelo proposto foi utilizada a microalga S. platensis, cultivada em meio Zarrouk modificado (NaHCO3 1,0 g.L-1 ), em biorreator aberto tipo raceway de 200L, mantido a 30°C, sob iluminação natural. A concentração celular variou de 0,19 a 0,34 g.L-1 e a velocidade específica de crescimento celular obtida a partir da regressão exponencial das curvas de crescimento de cada período iluminado variou de 0,55 a 0,59 d-1 . O modelo proposto gerou dados estimados satisfatórios (r2 =0,97). De acordo com os dados obtidos 16,2% da biomassa é consumida durante o período não iluminado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Datacenters have emerged as the dominant form of computing infrastructure over the last two decades. The tremendous increase in the requirements of data analysis has led to a proportional increase in power consumption and datacenters are now one of the fastest growing electricity consumers in the United States. Another rising concern is the loss of throughput due to network congestion. Scheduling models that do not explicitly account for data placement may lead to a transfer of large amounts of data over the network causing unacceptable delays. In this dissertation, we study different scheduling models that are inspired by the dual objectives of minimizing energy costs and network congestion in a datacenter. As datacenters are equipped to handle peak workloads, the average server utilization in most datacenters is very low. As a result, one can achieve huge energy savings by selectively shutting down machines when demand is low. In this dissertation, we introduce the network-aware machine activation problem to find a schedule that simultaneously minimizes the number of machines necessary and the congestion incurred in the network. Our model significantly generalizes well-studied combinatorial optimization problems such as hard-capacitated hypergraph covering and is thus strongly NP-hard. As a result, we focus on finding good approximation algorithms. Data-parallel computation frameworks such as MapReduce have popularized the design of applications that require a large amount of communication between different machines. Efficient scheduling of these communication demands is essential to guarantee efficient execution of the different applications. In the second part of the thesis, we study the approximability of the co-flow scheduling problem that has been recently introduced to capture these application-level demands. Finally, we also study the question, "In what order should one process jobs?'' Often, precedence constraints specify a partial order over the set of jobs and the objective is to find suitable schedules that satisfy the partial order. However, in the presence of hard deadline constraints, it may be impossible to find a schedule that satisfies all precedence constraints. In this thesis we formalize different variants of job scheduling with soft precedence constraints and conduct the first systematic study of these problems.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente projeto de Mestrado assenta no estudo dos principais fatores motivacionais na compra de livros de ficção, aprofundando a dicotomia uso próprio versus oferta, englobando duas perspetivas complementares: a sustentação bibliográfica e uma pesquisa quantitativa que foi concretizada através da distribuição de um inquérito por questionário, em formato digital, que permitiu obter 487 respostas válidas e completas. Os dados obtidos foram tratados no SPSS (Statistical Package for the Social Sciences), utilizando análises descritivas, que foram complementadas com técnicas de inferência estatística. Os resultados permitiram concluir que, apesar de homens e mulheres oferecerem um número idêntico de livros, as mulheres compram e leem mais. Além disso, cerca de um terço dos livros comprados destina-se a oferta. Ficou ainda provado que a interação com os autores nas redes sociais apresenta uma associação positiva com a importância atribuida a esse fator na hora de comprar o(s) livro(s). As mulheres são mais sensíveis às “Políticas de Marketing” (Atendimento Personalizado; Facilidade de Pagamento; Local com Cartão de Fidelização; Preços e Descontos; Elevada quantidade de livros), enquanto critérios de seleção do local de compra. Importa referir que a compra é concretizada de forma menos impulsiva quando o livro é para oferta. Os atributos da capa mais relevantes no processo de decisão de compra são o “Título” e a “Sinopse”. Contudo, os diferentes fatores da capa estudados não apresentam diferenças significativas na compra para uso próprio comparativamente à oferta, no que respeita à sua importância. “Autores com prémios literários” e “Nobel” e “Ser uma novidade” (livro) são outros fatores (não da capa) que apresentam diferenças significativas favoráveis à compra para oferta. Por outro lado, “Recomendação de Amigos e Familiares” e “Presença/Ligação/Interação com o Autor nas redes sociais” são mais favoráveis à compra para uso próprio. As conclusões são relevantes para enquadrar as preferências dos consumidores, possibilitando aos profissionais do marketing algumas referências para definir estratégias que respondam às suas necessidades e ambições. Além disso, ao explorar a dimensão dos submercados (Uso próprio versus Oferta), será possível ir ao encontro das exigências dos compradores, tornando a subjetividade da aquisição/utilização numa ferramenta eficaz da própria idealização e personalização dos livros, permitindo conceber e implementar ideias empreendedoras que visem estimular a compra e, consequentemente, melhorar os hábitos de leitura de todos os portugueses.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The phenolic ellagic acid (EA) is receiving increasing attention for its nutritional and pharmacological potential as an antioxidant and antimicrobial agent. The Australian native Kakadu plum (Terminalia ferdinandiana) fruit is an abundant source of this phytochemical. The fruit also contains large amounts of vitamin C (mainly as ascorbic acid, AA) and possibly the undesirable oxalic acid (OA). Regular consumption of high oxalate foods poses a variety of health risks in humans including interference with calcium absorption and kidney stone formation. Oxalate is also the end-product of AA metabolism so that consumption of fruit with heightened AA content has the potential to elevate urinary oxalate levels. The aims of this study were to investigate the distribution of EA and the presence of other bioactives in other Kakadu plum tissues. Chemical analysis of Kakadu plum fruit and leaves for EA (free and total), OA (water-soluble and total), calcium (Ca) and AA indicated that EA and AA concentrations were high in the fruit while the leaves had significantly higher EA levels but little or no detectable AA. OA content in fruit and leaves was substantial with the fruit being placed in the high-Oxalate category. These findings suggest that there is potential to elevate oxalate levels in the urine of susceptible people and intake of fruit-derived products should be closely monitored. By measuring tissues collected from specific trees, high EA-producing or low OA-containing individuals were identified.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A preocupação com a poluição das águas por agrotóxicos tem aumentado, visto que aumentou o número de detecções de agrotóxicos em águas. A falta de avaliação da qualidade da água consumida pela população de áreas rurais onde não existe o abastecimento público de água potável, deve ser considerada, pois essas águas se encontram próximo a áreas de cultivo, onde há intensa aplicação de agrotóxicos. Nessas regiões, o abastecimento de água para as residências e para a irrigação é feito geralmente através das águas de poços. Neste trabalho, um método para determinação dos agrotóxicos carbofurano, clomazona, 2,4-D e tebuconazol em água subterrânea foi desenvolvido e validado. O método utilizou a Extração em Fase Sólida (SPE) e determinação por Cromatografia Líquida de Alta eficiência com Detecção por Arranjo de Diodos (HPLC-DAD) e confirmação por Cromatografia Líquida tandem Espectrometria de Massas (LC-MS/MS). Para a SPE utilizou-se cartuchos C18 de 200 mg, e eluição com 1 mL de metanol. Após a otimização dos parâmetros de extração e separação dos compostos, o método foi validado avaliando-se curva analítica, linearidade, limites de detecção e quantificação, precisão (repetitividade e precisão intermediária) e exatidão (recuperação). Todas as curvas analíticas apresentaram valores de r maiores que 0,99. Os LOQs para o método, considerando a etapa de pré-concentração de 250 vezes, foram de 0,2 µg L -1 para todos os agrotóxicos por HPLC-DAD e, por LC-MS/MS, 4,0 ng L -1 para clomazona, carbofurano e tebuconazol e de 40,0 ng L -1 para 2,4-D. As recuperações foram entre 60,3 e 107,7% para a repetitividade e entre 67,5 e 115,3% para a precisão intermediária, com RSD de 0,8 a 20,7% para todos os compostos por HPLC-DAD. Para o LC-MS/MS a precisão em termos de repetitividade, variou entre 0,97 e 20,7%, e as recuperações entre 67,0 e 108,9%. O método foi aplicado na determinação de agrotóxicos em amostras de águas subterrâneas durante um ano. Nas amostras foram detectados agrotóxicos em níveis de µg L -1 . Dentro do contexto atual da Química Analítica, de desenvolver métodos mais rápidos, que utilizem menor quantidade de solvente, de amostra e com altos fatores de enriquecimento, foi otimizado um método de extração para os agrotóxicos carbofurano, clomazona e tebuconazol utilizando a Microextração Líquido-Líquido Dispersiva (DLLME) e determinação por LC-MS/MS. Foram otimizados alguns parâmetros que influenciam no processo de extração, como: tipo e volume dos solventes dispersores e extratores, tempo de extração, força iônica e velocidade de centrifugação. Nas condições otimizadas, as recuperações para os níveis de concentração entre 0,02 e 2,0 g L -1 variaram entre 62,7 e 120,0%, com valores de RSD entre 1,9 e 9,1%. O LOQ do método foi de 0,02 µg L -1 para todos os compostos. Quando comparado com a SPE se demonstrou rápido, simples, de baixo custo, além de necessitar de menores volumes de amostra para determinação de agrotóxicos em águas. O método mostrou-se adequado à análise dos agrotóxicos em água subterrânea e todos os parâmetros de validação obtidos estão dentro dos limites sugeridos para validação de métodos cromatográficos