1000 resultados para simulacio computacional


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El planteo general de este Proyecto de Investigación Trianual incluye el estudio sistemático y actualizado de los procedimientos técnicos y de los métodos experimentales adecuados para la garantía de calidad de los Agregados Reciclados obtenidos de hormigones demolidos, a utilizar en estructuras de cualquier tipo, en general y en pavimentos de autopistas, aeropuertos, carreteras y calles, en particular; por medio de la aplicación de las Especificaciones respectivas a redactar y proponer para su inclusión en las Normas IRAM y en los Reglamentos CIRSOC. (...) El Plan de Trabajo Trianual que se detalla en las páginas siguientes que forman parte de esta Solicitud de Subsidio incluye sintéticamente los siguientes temas: 1995: Caracterización de Hormigones Frescos con Agregados Reciclados. Estudio de la consistencia; Reología del hormigón fresco; Estudio de la trabajabilidad; Análisis de tipo: estático y dinámico; Estudio de la segregación; Estudio de la exudación; Influencia de los aditivos; Redacción de normas y especificaciones. 1996: Caracterización de Hormigones Endurecidos con Agregados Reciclados. Estudio de la microfisuración; Rotura y nivel de solicitación de los hormigones endurecidos; Adherencia entre los agregados reciclados y el mortero de cemento; Determinación experimental de las fisuras por el método ultrasónico y otros; Teoría del daño aplicada a hormigones con agregados reciclados; Análisis de los estados de fisuramiento en compresión y en flexión; Redacción de normas y especificaciones. 1997: Mecánica de la Fractura en Hormigones con Agregados Reciclados. Análisis de los parámetros de fractura en los hormigones; Estudio de la mecánica de la fractura y de la microfisuración; modelación de las fracturas en los hormigones por el método de elementos finitos; Análisis experimental para caracterizar la propagación de fisuras; Fisuramientos por efectos térmicos; Análisis de la fractura en la unión de hormigón nuevo con viejo; Redacción de normas y especificaciones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las estructuras laminares se caracterizan por su escaso espesor en relación a las otras dimensiones. Esto las hace muy eficientes por su reducido consumo de material cuando se trata de cubiertas de grandes dimensiones. Para poder construir con pequeños espesores en relación a la luz libre es necesario evitar los esfuerzos de flexión. Esto se logra con adecuadas relaciones entre las cargas, la posición y tipo de apoyos y la configuración geométrica de la cáscara. Desde el siglo pasado el cálculo funicular da solución para el problema de barras en el plano y Gaudí, a comienzos del siglo XX, logró importantes avances con modelos funiculares de hilos y pesas. (...) (...) Simultáneamente con el aspecto experimental que sirve para la generación formal, se ha ido realizando la verificación estática y resistente de los modelos propuestos para acciones gravitatorias simples. Para esto se esta utilizando el programa de elementos finitos para cálculo estructural denominado STRAP. (...) El otro aspecto fundamental para la posible aplicación práctica en la arquitectura de esta tipología estructural es el desarrollo de sistemas tecnológicos apropiados que resulten aceptables económicamente. El plan de trabajo apunta a desarrollar cuatro temas: Tema 1. Antecedentes históricos en la evolución de estructuras funiculares y antifuniculares y de la influencia de los métodos de diseño, análisis y construcción de los resultados arquitectónicos. Aplicación del nuevo método a la resolución de problemas idénticos a edificios reales, para encontrar nuevas posibilidades y comparar resultados. Tema 2. Diseño y análisis morfológico de las cáscaras por medios experimentales y computacionales. Tema 3. Análisis numérico del comportamiento estructural por aplicación de software especializado, como control del adecuado comportamiento estático. Tema 4. Desarrollo tecnológico de sistemas constructivos apropiados y evaluación económica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudi elaborat a partir d’una estada a l'Imperial College of London, Gran Bretanya, entre setembre i desembre 2006. Disposar d'una geometria bona i ben definida és essencial per a poder resoldre eficientment molts dels models computacionals i poder obtenir uns resultats comparables a la realitat del problema. La reconstrucció d'imatges mèdiques permet transformar les imatges obtingudes amb tècniques de captació a geometries en formats de dades numèriques . En aquest text s'explica de forma qualitativa les diverses etapes que formen el procés de reconstrucció d'imatges mèdiques fins a finalment obtenir una malla triangular per a poder‐la processar en els algoritmes de càlcul. Aquest procés s'inicia a l'escàner MRI de The Royal Brompton Hospital de Londres del que s'obtenen imatges per a després poder‐les processar amb les eines CONGEN10 i SURFGEN per a un entorn MATLAB. Aquestes eines les han desenvolupat investigadors del Bioflow group del departament d'enginyeria aeronàutica del Imperial College of London i en l'ultim apartat del text es comenta un exemple d'una artèria que entra com a imatge mèdica i surt com a malla triangular processable amb qualsevol programari o algoritme que treballi amb malles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En aquesta memòria es presenta el desenvolupament d'un entorn virtual orientat a la didàctica de la lògica proposicional, aplicada en assignatures de Lògica Computacional i Estructura i Tecnologia de Computadors. L'entorn en si té com a objectiu ser un reforç a l'aprenentatge autodidacta per part de l'alumne en aquestes matèries, així com una eina de seguiment per part del professor.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas a utilização de computadores tornou-se parte integrante da vida das pessoas, permitindo o aparecimento de vários tipos de crimes electrónicos. Neste contexto, é importante que as organizações se preparem para investigar casos que envolvem a informática e adoptem procedimentos válidos e confiáveis que permitem recuperar os dados dos computadores envolvidos em actividades ilícitas. A Forense Computacional, são técnicas que permitem-nos recolher, identificar, analisar e apresentar evidências de crimes digitais. Pretende-se com este trabalho, apresentar as principais técnicas de Forense Computacional em servidor IIS 5.0 da Microsoft.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A alcalinidade excessiva das águas destinadas à fertirrigação pode criar uma série de inconvenientes, que vão desde o entupimento dos emissores, pela precipitação de carbonatos, até a redução da disponibilidade dos micronutrientes para as culturas. Com o propósito de auxiliar a tomada de decisão quanto ao manejo da alcalinidade dessas águas, desenvolveu-se o ALKA 1.0, um software em CLIPPER 5.2, que pode ser rodado em microcomputadores IBM-PC/XT/AT/PENTIUM ou outros 100% compatíveis. A partir do fornecimento do pH original da água de irrigação, da sua alcalinidade total ou subdividida em CO3(2-) e HCO3- (em mmol L-1), e da lâmina de irrigação utilizada durante o ciclo da cultura, o ALKA 1.0 fornece as quantidades de HCl, HNO3, H2SO4 e H3PO4 que devem ser adicionadas à água de irrigação para que o seu pH atinja o valor estipulado pelo usuário. Além do volume de cada ácido a ser adicionado, o programa fornece a quantidade de nutrientes introduzidas pelos ácidos, na dosagem recomendada, bem como o custo total de cada uma das possíveis escolhas. Para tal, cadastram-se, inicialmente, a densidade e a pureza (%p/p) de cada ácido, bem como seu custo por litro. O ALKA 1.0 oferece, ainda, a opção de adições mistas dos diversos ácidos, visando não só à remoção da alcalinidade excessiva da água, mas também a um balanço adequado à cultura em questão dos nutrientes (N, P, S) adicionados via ácido. Por fim, o ALKA 1.0 oferece a possibilidade de trabalhar-se com bancos de dados, pré-cadastrados, que contêm informações sobre as origens (localidades) e fontes (rios, poços, lagos, açudes e outros) de diversas águas, além do seu pH e alcalinidade total. Desta forma, podem-se conhecer as características de manejo da alcalinidade dessas águas em função de características definidas pelo usuário, tais como um município em particular, determinada fonte, pH, e outros. O ALKA 1.0 foi validado com uma mistura sintética de CO3(2-) e HCO3-, com pH 9,19, em que se verificou a eficiência dos cálculos efetuados para o abaixamento do pH para 7,0, 6,5 e 5,5; e com amostras de águas naturais, para o abaixamento do pH para 6,5 e 6,0; obtendo-se resultados bastante satisfatórios. A redução do pH das amostras naturais para 5,0 não foi eficiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O ponto de efeito salino nulo (PESN) de amostras de solo é normalmente determinado por método gráfico e corresponde ao valor de pH referente ao ponto de interseção de curvas de titulação potenciométrica. Embora a elaboração dos gráficos em planilhas eletrônicas diminua a subjetividade existente no traçado manual, um tempo considerável é necessário quando a determinação do PESN envolve grande número de amostras. Este trabalho objetivou o desenvolvimento de um programa computacional para a determinação analítica do PESN de amostras de solo, com vistas em eliminar a subjetividade do método gráfico, proporcionar rapidez às determinações e permitir o conhecimento do grau de precisão dos valores calculados. Com o procedimento de cálculo desenvolvido, determinaram-se os valores de PESN a partir de resultados experimentais de titulação potenciométrica obtidos por outros autores. A comparação dos valores calculados pelo programa com os apresentados nos trabalhos consultados, os quais foram obtidos pelos autores por meio do método gráfico convencional, demonstrou ser o método analítico-computacional proposto bastante adequado para a determinação rápida e não-subjetiva do PESN de amostras de solo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

 Mitjançant imatges estereoscòpiques es poden detectar la posició respecte dela càmera dels objectes que apareixen en una escena. A partir de lesdiferències entre les imatges captades pels dos objectius es pot determinar laprofunditat dels objectes. Existeixen diversitat de tècniques de visió artificialque permeten calcular la localització dels objectes, habitualment amb l’objectiude reconstruir l’escena en 3D. Aquestes tècniques necessiten una gran càrregacomputacional, ja que utilitzen mètodes de comparació bidimensionals, i pertant, no es poden utilitzar per aplicacions en temps real.En aquest treball proposem un nou mètode d’anàlisi de les imatgesestereoscòpiques que ens permeti obtenir la profunditat dels objectes d’unaescena amb uns resultats acceptables. Aquest nou mètode es basa entransformar la informació bidimensional de la imatge en una informacióunidimensional per tal de poder fer la comparació de les imatges amb un baixcost computacional, i dels resultats de la comparació extreure’n la profunditatdels objectes dins l’escena. Això ha de permetre, per exemple, que aquestmètode es pugui implementar en un dispositiu autònom i li permeti realitzaroperacions de guiatge a través d’espais interiors i exteriors.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A condutividade hidráulica do solo saturado (Kθs) é uma propriedade com grande variabilidade, o que exige a utilização de um número maior de determinações para que sua descrição possa ser feita adequadamente pela função densidade de probabilidade normal. Consequentemente, há aumento de trabalho e de tempo para a obtenção dos resultados, principalmente se as determinações forem feitas com equipamentos de pouca praticidade. A construção de equipamentos de maior praticidade e o desenvolvimento de ferramentas computacionais podem tornar o processo de análise mais rápido e preciso. Com esse objetivo, foi construído um permeâmetro de carga decrescente e desenvolvido um software para a aquisição de dados. As medidas de Kθs obtidas com esses equipamentos, em amostras de um Argissolo, mostraram menor variabilidade, avaliada pelo coeficiente de variação, o que resultou em maior precisão das determinações. Além disso, o tempo de análise foi reduzido em 30 %.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há dois principais tipos de penetrômetro, o estático e o dinâmico. No primeiro, uma haste com uma ponta cônica é introduzida contínua e lentamente (quase estático), registrando-se concomitantemente a força de reação que é igual à resistência do solo. No segundo, utiliza-se a mesma haste. Contudo, esta é introduzida por meio da promoção de uma massa de impacto em queda livre. Dessa forma, a teoria pode ser tratada pela dinâmica newtoniana para obtenção da resistência. O objetivo do programa é proporcionar uma ferramenta rápida, facilitadora da computação de dados de resistência do solo, para esse último penetrômetro, resultando tabelas e gráficos já no formato científico. Desenvolvido em linguagem de programação Visual Basic Aplication (VBA), escolheu-se o aplicativo Excel como interface com o usuário pela sua popularidade. É constituído por quatro planilhas, duasauxiliares, sendo duas delas essenciais, Plan1 e 2: Plan1 - dados de entrada (número de impactos e profundidade). Concomitante à digitação, a tabela de resistência é confeccionada com o respectivo gráfico, podendo tabelar 40 perfis. Plan2 - cumpre função especial de equalizar, ou seja, padronizar a profundidade em camadas constantes, permitindo unificar todos os perfis em uma única tabela. Para tal, escolhe-se uma espessura de camada (exemplo: 5 cm); em seguida, o programa coleta os dados de resistência (MPa) da Plan1 e interpola os valores para a profundidade de 5 em 5 cm. Após realizar esse procedimento para todas as tabelas da Plan1, o programa gera, na Plan2, uma única tabela com todos os perfis, a média geral e os respectivos gráficos. É possível selecionar os perfis; por exemplo, apenas os medidos na linha ou entrelinha de plantio e eliminar perfis a critério do usuário. Como objetivo complementar, descreve-se a evolução do projeto "Penetrômetro de impacto", iniciado em 1982, cuja técnica passou a ser adotada no meio científico, após a publicação da teoria nesta revista em 1991. Apresenta-se também levantamento no meio científico nos últimos três anos (2010-2012), propiciando uma visão das principais aplicações na atualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi o de apresentar o algoritmo de um programa computacional baseado em um método numérico de estimativa de perdas de herbicidas aplicados por pulverização aérea. Este método apresenta como entrada de dados a freqüência de tamanhos das gotas em papéis hidrossensíveis, observadas no gratículo de Porton acoplado ao microscópio. A partir desses valores calcula-se a distribuição acumulada do diâmetro médio do tamanho e do volume das gotas formadas pelo bico de pulverização utilizados na aplicação, conforme metodologia já conhecida. Os dados obtidos para estas curvas de distribuição permitem fazer uso do método numérico de interpolação linear para a obtenção do diâmetro mediano volumétrico e do diâmetro mediano numérico da gota. Estes valores são fundamentais para a determinação da uniformidade de gota. Este método numérico foi implementado em linguagem computacional, permitindo a comparação de valores observados com os encontrados pela interpolação, para papéis espalhados nas faixas de aplicação. É apresentado um exemplo de utilização do programa para placas de papel hidrossensível amostradas em experimento realizado em Pelotas, RS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe um método de projeto de embalagem para produtos hortícolas, buscando uma otimização integrada dos aspectos geométricos, estruturais e térmicos, ligados à facilitação do resfriamento e armazenamento refrigerado. Para o dimensionamento e otimização estrutural, foi utilizado o Método dos Elementos Finitos implementado pelo programa ANSYS, obtendo-se oito modelos virtuais de embalagens, com 10% e 14% de área efetiva de aberturas e geometria quadrada, retangular e circular. Para o desenvolvimento dos experimentos, que avaliaram a relação da área de aberturas com o tempo de sete-oitavos de resfriamento, foram construídos protótipos de tábuas de madeira (Pinnus elliotti) de reflorestamento. Nas embalagens, foram acondicionados aproximadamente 13 kg de banana variedade Nanica (Musa cavendishii, cultivar nanica), resfriada num túnel de ar forçado (vazão de ar de 0,32 m³ s-1, temperatura de 8,0±1,2ºC e umidade relativa de 84,5±2,6%). O tempo de resfriamento também foi comparado com aquele obtido quando a mesma quantidade de frutas foi resfriada em embalagens de papelão (2,5% de área efetiva de abertura) e madeira (18% de área efetiva de abertura). Os resultados demonstraram que, entre os protótipos propostos, não houve diferença significativa no tempo de resfriamento dos frutos acondicionados nas embalagens desenvolvidas, sendo o tempo médio de resfriamento de 40,71±2,81 min. Na comparação com as embalagens de papelão e madeira, houve diferenças significativas, sendo que as embalagens comerciais tiveram tempos de resfriamento de 1,25 e 2 vezes maiores. Concluiu-se que a simulação estrutural computacional, aliada a algoritmos de otimização, além de procedimentos experimentais ligados à cadeia do frio, são recursos promissores no auxílio de projetos para embalagens de transporte de produtos hortícolas.