1000 resultados para ingeniería del software
Resumo:
Extensive application of vinasse, a subproduct from sugar cane plantations for bioethanol production, is currently taking place as a source of nutrients that forms part of agricultural management in different agroclimatic regions. Liquid vinasse composition is characterised by high variability of organic compounds and major ions, acid pH (4.7), high TDS concentration (117,416–599,400 mg L− 1) and elevated EC (14,350–64,099 μS cm− 1). A large-scale sugar cane field application is taking place in Valle del Cauca (Colombia), where monitoring of soil, unsaturated zone and the aquifer underneath has been made since 2006 to evaluate possible impacts on three experimental plots. For this assessment, monitoring wells and piezometers were installed to determine groundwater flow and water samples were collected for chemical analysis. In the unsaturated zone, tensiometers were installed at different depths to determine flow patterns, while suction lysimeters were used for water sample chemical determinations. The findings show that in the sandy loam plot (Hacienda Real), the unsaturated zone is characterised by low water retention, showing a high transport capacity, while the other two plots of silty composition presented temporal saturation due to La Niña event (2010–2011). The strong La Niña effect on aquifer recharge which would dilute the infiltrated water during the monitoring period and, on the other hand dissolution of possible precipitated salts bringing them back into solution may occur. A slight increase in the concentration of major ions was observed in groundwater (~ 5% of TDS), which can be attributed to a combination of factors: vinasse dilution produced by water input and hydrochemical processes along with nutrient removal produced by sugar cane uptake. This fact may make the aquifer vulnerable to contamination.
Resumo:
Este programa se encuentra disponible en Excel y en código MATLAB.
Resumo:
Versión MATLAB.
Resumo:
Glossari de termes en valencià, castellà i anglès de Mecànica del Sòl i Mecànica de les Roques.
Resumo:
El objetivo general de este trabajo fin de máster es el análisis y síntesis de los principales estudios realizados, hasta la fecha, así como la profundización en la investigación sobre la importante tasa de subsidencia que está experimentando la cuenca del Alto Guadalentín durante las últimas décadas. El objetivo general anteriormente expuesto se puede dividir en los siguientes objetivos específicos: • Confirmación de que la subsidencia del Valle del Guadalentín está provocada, principalmente, por la sobreexplotación de acuíferos, y en todo caso, detectar si existe alguna causa secundaria, como la tectónica. • Justificación de los motivos por los cuáles existen dificultades para encontrar los signos externos de subsidencia, del apartado anterior, en el Valle del Guadalentín a diferencia de otros casos del mismo tipo de subsidencia en el mundo. • Localización e identificación de casos concretos de consecuencias físicas del fenómeno de la subsidencia en el terreno, tales como grietas y hundimientos en el terreno, patologías en construcciones y variaciones anómalas de la pendiente en parcelas y canales de riego.
Resumo:
Las fórmulas basadas en la teoría de la elasticidad son ampliamente utilizadas para el cálculo de asientos de cimentaciones, ya que la totalidad de la normativa geotécnica recomienda su empleo. No obstante, estos métodos no cubren todas las situaciones geotécnicamente posibles ya que frecuentemente las condiciones geológicas son complejas. En este trabajo se analiza la influencia de la presencia de una capa rígida inclinada en los asientos elásticos de una cimentación superficial. Para ello se han resuelto 273 modelos tridimensionales no lineales de elementos finitos, variando los parámetros clave del problema: la inclinación y la profundidad de la capa rígida y la rigidez de la cimentación. Finalmente, se ha realizado un análisis estadístico de los resultados de los modelos y se ha propuesto una fórmula que puede ser utilizada en el cálculo de asientos por métodos elásticos, para tener en consideración la presencia de una capa rígida inclinada en profundidad.
Resumo:
En los últimos años se han difundido, en la región productora de granos de la Provincia de Córdoba, la utilización de tecnologías de agricultura de precisión (monitores de rendimiento, GPS, sensores geofísicos) que permiten medir y en consecuencia, manejar diferenciadamente la variabilidad espacial intralote, tanto de los rendimientos como de propiedades del sitio (suelo, terreno, nutrientes). Los mapas de rendimiento y de suelo a escala de lote (intralote) proveen indicadores de riesgos asociados con la producción y constituyen herramientas claves para implementar el manejo sitio-específico en agricultura de precisión. Estos mapas deben ser realizados desde los datos que producen las nuevas maquinarias. La identificación de zonas homogéneas, surge como una necesidad para el manejo de la variabilidad espacial del rendimiento; éstas se interpretan como conjuntos de sitios con una misma combinación de factores limitantes de la producción y por tanto con una misma demanda para maximizar la producción. La delimitación de zonas homogéneas se realiza utilizando los datos georreferenciados de rendimiento y/o de sitio, pero el óptimo uso de la información espacial disponible, demanda nuevos desarrollos estadístico-computacionales. Las dependencias espaciales de los rendimientos y de las propiedades del sitio son actualmente abordadas con modelos geoestadísticos clásicos, con métodos multivariados y con modelos estadísticos contemporáneos como los modelos mixtos de covarianza espacial. Cuando los datos de suelo se obtienen por sitio en varios años, la zonificación podría depender también de la variabilidad temporal de las mediciones. La variabilidad temporal en las propiedades de sitio impacta en las zonificaciones y consecuentemente en las predicciones de rendimientos. Nuestro grupo de investigación en Estadística y Biometría de la Facultad de Ciencias Agropecuarias, Universidad Nacional de Córdoba, ha desarrollado algoritmos computacionales para el análisis de la variabilidad espacial de los rendimientos intralote, contemplando simultáneamente la correlación espacial y la variabilidad temporal. A través del software de desarrollo nacional InfoStat y su interfase con el software R, se han implementado diversas técnicas para el análisis exploratorio de datos georeferenciados y el análisis de la variabilidad espacial así como para la delimitación de zonas homogéneas y funciones para la predicción del rendimiento utilizando variables regionalizadas de sitio como predictoras. InfoStat es utilizado en ámbitos estatales y privados (INTA, Universidades, Semilleros y Empresas de gestión de la producción agrícola). Numerosos grupos de técnicos, docentes y/o investigadores demandan capacitación y asesoramiento en el uso de nuevas aplicaciones y análisis que se pueden realizar con este software. La posibilidad de publicar nueva documentación para apoyar el análisis estadístico de información proveniente de lotes en producción de cultivos de grano es importante para la región central y sur de la Provincia de Córdoba, donde están ya instaladas las capacidades para captura intensiva de datos desde nuevas maquinarias precisas. El objetivo de la presente propuesta es difundir, a través de la edición de un libro, con ejemplos ilustrativos del paso a paso del análisis estadístico para el estudio de variabilidad espacial del rendimiento intralote.
Resumo:
En este proyecto se investigan 3 subáreas de Inteligencia Artificial y sus aplicaciones en contextos educativos. Las 3 áreas son 1) agentes conversacionales automatizados que actúan como instructores virtuales o sistemas de tutoring automatizado, 2) asistentes virtuales que llevan a cabo una tarea dada bajo la instrucción de un aprendiz avanzado, y 3) plataformas de programación de chatbots como una herramienta educativa para enseñar conceptos básicos de ciencias de la computación. La hipótesis de este proyecto es que tanto los tutores como los asistentes conversacionales automatizados deben incluir una representación contextual rica que identifique lo entendido por el aprendiz hasta el momento y ser capaces de realizar inferencias sobre ella para poder guiar mejor su aprendizaje. Los objetivos de este proyecto incluyen el desarrollo de algoritmos de inferencia contextuales apropiados para instructores y asistentes virtuales, el desarrollo de algoritmos para la programación simplificada de chatbots, la evaluación de estos algoritmos en pruebas piloto en escuelas y la realización de un curso online abierto masivo para estudiantes de secundario del programa Conectar Igualdad que quieran aprender sobre Inteligencia Artificial y Ciencias de la Computación. El método a utilizar será la realización de recolección de corpus (interacciones humano-humano de las interacciones tutor-aprendiz), la aplicación de técnicas de procesamiento de lenguaje natural como la generación por selección y la interpretación por clustering y maximum entropy models usando características sintácticas, semánticas y pragmáticas. Se desarrollarán los algoritmos siguiendo una metodología estándar de Ingeniería de Software y se evaluarán en experiencias piloto en escuelas secundarias así como en un curso online abierto y masivo. Además se dictará un curso de capacitación docente para la incorporación de las tecnologías producidas a sus cursos. Como resultado se espera la contribución al área de Inteligencia Artificial con aplicaciones en Educación de algoritmos evaluados empíricamente en entornos educativos reales del nivel medio. Además, se espera contribuir a las metodologías de enseñanza de Ciencias de la Computación en el nivel medio. Este proyecto es relevante a la realidad nacional y mundial de falta de recursos humanos formados en las Ciencias de la Computación y al crecimiento mundial que el área de Inteligencia Artificial en general y de Sistemas de diálogo (o interfaces conversacionales) en particular ha tenido en los últimos años con el crecimiento exponencial de la tecnología en la vida diaria.
Resumo:
In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.
Resumo:
Il lavoro svolto si concentra sullo studio e lo sviluppo dei sistemi software per la gestione dei big data. Inizialmente sono stati analizzati i settori nei quali i big data si stanno diffondendo maggiormente per poi studiare l'ingegnerizzazione e lo sviluppo dei sistemi in grado di gestire questo tipo di dati. Sono state studiate tutte le fasi del processo di realizzazione del software e i rischi e i problemi che si possono incontrare. Infine è stato presentato un software di analisi di big data: Google BigQuery.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
A pesquisa busca identificar as questões relacionadas aos estudos de Comunicação na Usabilidade de interfaces. O estudo é desenvolvido com revisão bibliográfica da Interação Humano-Computador e da Usabilidade. As revisões da interação humano-computador se dá considerando três principais eixos: Engenharia de software, Engenharia de Fatores Humanos e Design gráfico. Neste sentido, faz-se um recorte na importância das investigações e das propriedades comunicacionais que viriam a surgir nas relações suportadas pela interface de sistemas e das qualidades e características que determinam a usabilidade de interfaces. Observa-se que, apesar das características e propriedades comunicacionais serem intrínsecas as tecnologias digitais da informação, o envolvimento da Comunicação nestes processos de investigação ou construção de tecnologias interativas são superficiais e oferecem certo distanciamento dos aspectos tecnológicos. Denota-se, portanto, que as contribuições sobre aspectos da interação entre homem e máquina suportadas por interfaces comunicacionais são estritamente técnicas e oriundas de outros campos do conhecimento, apesar da existência da Teoria Mátemática da Comunicação e da sua origem em meios técnicos de comunicação como o telégráfo. Verifica-se assim a possibilidade de um maior envolvimento da Comunicação não apenas nas investigações relacionadas à usabilidade de sistemas interativos, como também na contribuição dos seus processos de desenvolvimento de sistemas baseados em diálogos.
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
El origen y naturaleza de la investigación refieren al filme de vanguardia mudo como forma plástica y recurso técnico adjunto a los nuevos medios mecánicos de principios del siglo veinte – léase, fotografía, fotomontaje, cine, impresión offset - y sus correspondencias creativas y metodológicas con la vanguardia del software informático y nuevos medios digitales. En este sentido, la propuesta conceptual y formal señala este campo de correspondencias y combinatorias como plataforma de análisis crítico y proyectual, antes que un sistema homogéneo de interpretación y sistematización del ámbito de interés. El filme de vanguardia deriva de las mediaciones sociales, científicas y políticas de las vanguardias artísticas en arte, diseño y arquitectura de las primeras décadas de la era industrial. A este respecto, los filmes seleccionados se realizaron durante el período mudo; es decir, no hay diálogos ni banda sonora incorporada al material fílmico. Sin embargo, en estricto rigor, tampoco es correcto identificarlos a tábula rasa con la denominada estética muda; puesto que esta obra refiere otra interfaz, otro vector y botón de búsqueda de los pioneros de la nueva visión mecánica...
Resumo:
L’idea di questa tesi è nata dalla volontà di verificare il lavoro svolto come oggetto di studio di illustri scienziati che si prefissero come traguardo la risoluzione di questo problema, che aveva come obiettivo la comprensione, la previsione e l’ottimizzazione dei fenomeni legati allo scambio termico convettivo attraverso le svariate geometrie di superficie. Gli steps per il raggiungimento dello scopo oggetto di questa tesi, pertanto, possono essere così riassunti: 1. definizione di una corretta metodologia di calcolo dei campi fluidodinamico e termico, per un condotto piano infinitamente lungo, in condizioni di completo sviluppo; 2. dimostrazione della fattibilità di un’ottimizzazione di tale geometria, tramite l’utilizzo del software Mathematica; 3. trovare l’andamento del numero di Nusselt e verificare se il risultato ottenuto coincide con il risultato che si trova in letteratura relativamente al caso studiato. Da quanto ottenuto mediante i calcoli realizzati con il software Mathematica possiamo concludere che l’andamento del numero di Nusselt, ottenuto tenendo conto delle condizioni al contorno di tipo T in un condotto con pareti piane infinitamente lungo, ci dimostrano che i calcoli precedentemente effettuati sono corretti in quanto corrispondo ai risultati presenti in letteratura.