1000 resultados para Excel (Programa de computador)
Resumo:
O comportamento ao fogo de pilares de aço inseridos em paredes de edifícios é substancialmente diferente dos pilares quando isolados. O contacto com as paredes provoca por um lado um efeito de redução das temperaturas, revelando-se de certa forma favorável em termos de comportamento ao fogo, mas por outro lado provocando um aquecimento diferencial das secções levando ao aparecimento de esforços desfavoráveis (momentos fletores) nos pilares, aumentando a instabilidade. Este último fenómeno designa-se de “Thermal Bowing”, provocado pelo aquecimento diferencial, deve ser avaliado por uma quantificação rigorosa das temperaturas nos perfis de aço. O estudo foi realizado em dois níveis, numérico e experimental. Foram testados pilares inseridos em paredes de alvenaria, tanto com a alma paralela como perpendicular à parede. Pretendeu-se assim, avaliar o efeito da ação térmica diferencial no comportamento estrutural dos pilares e concluir qual o efeito das paredes sobre estes na sua resistência estrutural. Foram ainda alvo de análise o nível de carregamento e a esbelteza do pilar. Compararam-se os resultados dos ensaios experimentais com os estudos numéricos, reproduzindo as condições utilizadas nos ensaios experimentais, por forma a contribuir para o desenvolvimento/melhoria dos métodos de dimensionamento dos pilares em situação de incêndio. O programa experimental comportou a realização de ensaios em pilares de aço de secção H, embebidos em paredes. A modelação numérica dos ensaios foi realizada utilizando o programa de computador de elementos finitos ABAQUS, elaborando-se uma análise geométrica e material não - linear. Os principais resultados deste trabalho de investigação foram uma melhor avaliação da evolução de temperaturas na secção transversal dos pilares de aço com aquecimento diferencial, inseridos em paredes, deslocamentos, forças de restrição e esforço axial daí decorrentes. A partir destes resultados, realizou-se uma análise detalhada do deslocamento do centro de gravidade ao longo do tempo, provocada pela degradação das propriedades mecânicas do aço.
Resumo:
En el área de Aerofotogrametría Digital, el software comercial prevalente para postproceso presenta limitaciones debido a dos factores: (i) las legislaciones de cada país o región requieren diferentes convenciones, y (ii) las necesidades de las empresas son tan cambiantes que no justifican la compra de software de alto rendimiento, que puede quedar sin utilizar debido a un viraje del mercado -- El presente proyecto se ha desarrollado para atender necesidades de procesamiento automático de planos (partición, detección y corrección de errores, etc.), así como módulos de importación – exportación paquete a paquete, trazado de rutas e interacción con GPS -- Este artículo informa de los dos últimos aspectos -- Debido a necesidades de los clientes, los archivos entregados deben llevar un formato comercial (DWG, DXF), pero el procesamiento de los archivos debe ser hecho en paquetes y formatos diversos (DGN) -- Por lo tanto, fue necesario diseñar e implementar un formato acompañante que permitió llevar la información que se pierde al usar filtros comerciales (DGN a DXF/DWG) -- Asimismo se crearon módulos de importación y exportación redundantes, que hicieron efectivos dichos atributos -- En el aspecto de generación de rutas de vuelo, se reportan en este artículo la aplicación de algoritmos tradicionales de barrido (peinado) de áreas 2D, a los cuales se agregaron restricciones geométricas (puntos fijos, offsets, orden de los barridos de acuerdo a coordenadas del sitio de partida, etc.) -- Debido a los altos costos de equipos equivalentes, se decidió desarrollar software para traducción de rutas entre formatos GPS y formatos geográficos locales al país -- Ello permite la eliminación de fuentes de error y además facilita la carga del plan de vuelo, a costos mucho menores a los del hardware / software comercial
Resumo:
En Aerofotogrametría, el proceso de restitución (paso de imagen a formato electrónico vectorizado) es realizado por un operador humano, con asistencia de hardware y Software especializado -- Dicho proceso implica la traducción de accidentes geográficos, detalles topográficos, etc., la cual conlleva errores tanto geométricos (precisión) como topológicos (conectividad) de los datos digitales vectorizados -- Adicionalmente, aun si la vectorizacion es perfecta, los editores en etapas subsecuentes deben realizar tareas repetitivas: formateo, marcado, ajuste de convenciones, etc., que por el tamaño de los archivos de datos se hacen prolongadas y propensas al error -- Tanto los procesos de corrección como de formateo y marcado requieren además la ejecución de entradas / salidas con el usuario en el computador, proceso que es particularmente lento -- Esta investigación presenta el desarrollo de herramientas automáticas de (i) detección y corrección de errores comunes en los planos restituidos, (ii) partición y re-agrupación inteligentes de planos grandes, y (iii) formateo y marcado automático -- El desarrollo de software se hace usando el standard AIS (Application Interface Specification), lo que lo hace portable a los modeladores cuya interface AIS haya sido implementada -- El proyecto se desarrolla para la firma AeroEstudios LTDA de Colombia, la cual lo ha incorporado a sus herramientas de procesamiento de información digital
Resumo:
Los modeladores geométricos más comunes en el mercado ofrecen, además de sus servicios de modelado, una API (Application Programming Interface) que permite la construcción de aplicaciones o software cliente -- Estas aplicaciones aprovechan los servicios básicos del modelador para proveer tareas específicas -- Sin embargo las diferencias entre API´s de distintos modeladores imposibilita el intercambio del software cliente entre ellos -- Application Interface Specification -AIS- es una API genérica para ser usada por aplicaciones cliente de los modeladores geométricos -- Este artículo reporta la implementación de AIS sobre AutoCAD® y MicroStation® y discute aspectos importantes de dicha implementación -- Además presenta una aplicación cliente neutra que habla lenguaje AIS y por lo tanto se ejecuta transparentemente sobre los dos modeladores -- AIS se presenta como una alternativa económica para escribir aplicaciones de CAD/CAM/CG -- Futuros desarrollos incluyen la implementación de AIS para labores gráficas y/o de base de datos
Resumo:
Se presenta una aproximación a la estructura a plazos de tasas de interés del mercado colombiano a través de dos modelos: Modelo de Diebold, & Li con factores latentes y el modelo de Diebold, Rudebusch & Aruoba con Macrofactores, los cuales fueron estimados utilizando un Filtro de Kalman implementado en MATLAB y posteriormente utilizados para obtener pronósticos de la curva en función del comportamiento esperado de variables macroeconómicas y financieras de la economía local y americana -- La inclusión de los macrofactores se hace esperando mejores proyecciones de la curva, de manera que tener proyecciones de estas variables será de utilidad para conocer el comportamiento futuro de la curva de rendimientos local -- Los modelos se ajustan con datos mensuales, tomando el periodo 2003-2015 y testeado con una porción de esta información; el modelo de factores latentes tiene solo información histórica de la curva cero cupón mientras que en el modelo con macrofactores se consideraron variables como: inflación local 12 meses, CDS 5Y, índice VIX, precios del WTI, TRM, tasa de cambio Euro/Dólar, tasa REPO y tasa FED; obteniendo finalmente dos modelos, siendo el que contiene macrofactores el que tiene mejores indicadores de desempeño en el pronóstico
Resumo:
La Bolsa de Valores de Colombia (BVC) ha tenido un impacto reducido en la población colombiana sobre todo debido a la falta de educación financiera y a múltiples casos de corrupción que han opacado su rol en la sociedad -- En general, los colombianos ven con incertidumbre, desconfianza y escepticismo las ventajas de invertir en la bolsa tales como obtener rendimientos superiores que las de las inversiones tradicionales, seguridad en las transacciones y disponibilidad del dinero cuando se requiera, lo que desencadena inversiones en métodos más tradicionales, como los CDT (certificado de depósito a término), con muy bajas tasas de rendimiento, o en negocios que representan altos riesgos -- Dicho comportamiento ha generado que muchas de las inversiones que realiza una persona promedio en Colombia no vayan más allá de productos financieros conocidos, negocios familiares o tradicionales, pirámides o multiniveles que entorpecen el sistema financiero -- Una de las principales barreras encontradas al momento de invertir en la Bolsa de Valores de Colombia son creencias populares tales como: a) es obligatorio tener grandes capitales de dinero, o b) es necesario un conocimiento financiero especializado para invertir -- También resulta incierto para muchos usuarios en cuáles acciones convendría invertir una vez desmitificadas las anteriores creencias -- Para mitigar algunos de dichos inconvenientes, el estudio de portafolios de inversión propone como estrategia principal la diversificación de la inversión y la limitación del riesgo con el fin de crear portafolios altamente eficientes en términos financieros -- Si bien existen múltiples técnicas para la creación y la optimización de portafolios de inversión (por ejemplo: growth optimal portfolio), su uso en Colombia es limitado debido en lo primordial a que es una metodología reciente y a que su implementación no suele ser trivial, puesto que requiere el uso de múltiples herramientas computacionales para ser puesto en práctica -- El presente trabajo de grado presenta la implementación de un algoritmo de optimización robusto, en el sentido de las distribuciones de probabilidad requeridas, llamado portafolio óptimo de crecimiento robusto (robust growth optimal portfolio o RGOP) para acciones de la Bolsa de Valores de Colombia -- Se escogieron varios portafolios al tener en cuenta tres criterios de inclusión para las acciones y se simularon tres escenarios y una suposición con el fin de demostrar la eficacia del algoritmo para minimizar el riesgo de inversión y maximizar la tasa de crecimiento en unos horizontes de tiempo predefinidos -- En último lugar se compararon las rentabilidades de los diferentes portafolios propuestos con las tasas de captación de CDT y CDA (certificados de depósito de ahorro) de bancos populares en Colombia -- La implementación del algoritmo se realizó en la plataforma Matlab y se acudió a varias bibliotecas de modelamiento matemático -- Sin tener en cuentas los costos de transacciones por compra y venta de acciones, los resultados muestran que mientras el sector financiero ofrecía a través de los CDT inferiores de 180 días un promedio de 4.80% de rentabilidad, en un período similar el RGOP arrojaba en promedio 11.83% en los portafolios de inversión de los tres escenarios, es decir, la metodología propuesta ofreció rendimientos superiores a las ofertas de los bancos en 147% para los períodos simulados -- En conclusión, todos los escenarios analizados presentaron mejores rendimientos en la simulación que los rendimientos ofrecidos por los bancos durante el mismo período; se les dio mayor ponderación a las acciones que presentaron tasas de crecimiento mayores de tal forma que se minimizaran los riesgos implícitos de invertir en bolsa -- El RGOP mostró ser una técnica robusta para su uso con acciones de la Bolsa de Valores de Colombia porque ofreció una sólida combinación entre retorno y riesgo para futuros inversionistas
Resumo:
2015
Resumo:
Há dois principais tipos de penetrômetro, o estático e o dinâmico. No primeiro, uma haste com uma ponta cônica é introduzida contínua e lentamente (quase estático), registrando-se concomitantemente a força de reação que é igual à resistência do solo. No segundo, utiliza-se a mesma haste. Contudo, esta é introduzida por meio da promoção de uma massa de impacto em queda livre. Dessa forma, a teoria pode ser tratada pela dinâmica newtoniana para obtenção da resistência. O objetivo do programa é proporcionar uma ferramenta rápida, facilitadora da computação de dados de resistência do solo, para esse último penetrômetro, resultando tabelas e gráficos já no formato científico. Desenvolvido em linguagem de programação Visual Basic Aplication (VBA), escolheu-se o aplicativo Excel como interface com o usuário pela sua popularidade. É constituído por quatro planilhas, duasauxiliares, sendo duas delas essenciais, Plan1 e 2: Plan1 - dados de entrada (número de impactos e profundidade). Concomitante à digitação, a tabela de resistência é confeccionada com o respectivo gráfico, podendo tabelar 40 perfis. Plan2 - cumpre função especial de equalizar, ou seja, padronizar a profundidade em camadas constantes, permitindo unificar todos os perfis em uma única tabela. Para tal, escolhe-se uma espessura de camada (exemplo: 5 cm); em seguida, o programa coleta os dados de resistência (MPa) da Plan1 e interpola os valores para a profundidade de 5 em 5 cm. Após realizar esse procedimento para todas as tabelas da Plan1, o programa gera, na Plan2, uma única tabela com todos os perfis, a média geral e os respectivos gráficos. É possível selecionar os perfis; por exemplo, apenas os medidos na linha ou entrelinha de plantio e eliminar perfis a critério do usuário. Como objetivo complementar, descreve-se a evolução do projeto "Penetrômetro de impacto", iniciado em 1982, cuja técnica passou a ser adotada no meio científico, após a publicação da teoria nesta revista em 1991. Apresenta-se também levantamento no meio científico nos últimos três anos (2010-2012), propiciando uma visão das principais aplicações na atualidade.
Resumo:
Tesis (Maestría en Ciencias con Especialidad en Ingeniería Estructural) UANL, 2012.
Resumo:
Resumen tomado de la publicaci??n. Resumen tambi??n en ingl??s
Resumo:
La información y los datos genéticos que emanan hoy de las investigaciones del genoma humano demandan el desarrollo de herramientas informáticas capaces de procesar la gran cantidad de información disponible. La mayor cantidad de datos genéticos es el resultado de equipos que realizan el análisis simultáneo de cientos o miles de polimorfismos o variaciones genéticas, de nuevas técnicas de laboratorio de mayor rendimiento que, en conjunto, ofrecen una mayor disponibilidad de información en un corto espacio de tiempo. Esta problemática conduce a la necesidad de desarrollar nuevas herramientas informáticas capaces de lidiar con este mayor volumen de datos genéticos. En el caso de la genética de poblaciones, a pesar de que existen herramientas informáticas que permiten procesar y facilitar el análisis de los datos, estas tienen limitaciones como la falta de conocimiento de los usuarios de algunos lenguajes de programación para alimentar la información y otras herramientas informáticas no realizan todas las estimaciones que se requieren y otros presentan limitaciones en cuanto al número de datos que pueden incorporar o manejar. En algunos casos hay redundancia al tener que usarse dos o más herramientas para poder procesar un conjunto de datos de información genética. El presente trabajo tiene por objetivo el desarrollo de una herramienta informática basada en aplicaciones de computador comunes, en este caso Microsoft Excel® y que resuelva todos los problemas y las limitaciones descritas antes. El desarrollo del conjunto de subprogramas que constituyen a Lustro; permiten superar lo anterior, presentar los resultados en un ambiente sencillo, conocido y fácil de operar, simplificando de esta forma el proceso de adaptación del usuario del programa, sin entrenamiento previo, obteniéndose en corto tiempo el procesamiento de la información genética de interés.
Resumo:
En el presente trabajo se hace una aproximación a los auxiliares didácticos o medios de apoyo didáctico: qué son, porqué y cuándo utilizarlos, y los conceptos de algunos autores que respaldan su innegable contribución en la labor pedagógica.
Resumo:
Pós-graduação em Educação Matemática - IGCE