1000 resultados para modelos de campo de fase


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este texto, producto de investigación, recoge no sólo evidencias concretas de nuevos modelos de comunicación digitales, específicamente 40 modelos, sino que también integra algunas reflexiones de los autores en relación con la comunicación estratégica y táctica, los medios y las mediaciones. Si partimos del concepto de que la realidad ya no solo es virtual, sino que es una realidad enriquecida por los nuevos medios digitales, entonces es necesario comprender el qué, el cómo y el para qué de estos nuevos modelos de comunicación digitales. En el pasado, las categorizaciones de modelos de comunicación se hacían a partir de los medios. Sin embargo, el medio toma hoy relevancia, debido a las condiciones muy particulares de la contemporaneidad y a partir de las posibilidades de lo digital. Internet, por ejemplo, y su acceso a redes sociales, portales, motores de búsqueda, páginas y sitios web, blogs y wikis, entre otros, se convierte en un campo de interacción, a través del cual este medio (Internet) alcanza un apelativo de "multimedio" o "medio de medios". Con el fin de contribuir a estas nuevas búsquedas sobre el quehacer de la comunicación, presentamos este texto a consideración de los lectores con la única pretensión de que sea un material de apoyo, para una mejor comprensión de la comunicación y, específicamente, de los nuevos modelos de comunicación digital que circulan en la web.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivo: Identificar estructuras estandarizadas para la formulación de preguntas clínicas en el marco de la práctica basada en la evidencia. Método: Se realizó una revisión de la literatura. La búsqueda bibliográfica se efectuó en las bases de datos MEDLINE, CINAHL, EMBASE y LILACS, y en el buscador académico Google Scholar. Se efectuaron estrategias de búsqueda sensibles y acordes a cada base de datos. Límites de búsqueda: intervalo de tiempo (enero de 1995 a abril de 2015), idioma (artículos en inglés). Se usaron palabras clave libres y descriptores del Medical Subject Headings (MeSH) pertinentes: evidence based practice, question, formulation, well-built question, framework. Resultados: Se encontraron 10 manuscritos que aportaron el diseño original de estructuras para la formulación de preguntas clínicas en el ámbito de la práctica basada en la evidencia. El modelo PICO es la estructura más conocida y comúnmente utilizada en investigación cuantitativa y de él derivan los modelos PICOT, PICOTT, PICOS, PIPOH, PECORD, PESICO. En el campo de la gestión sanitaria la estructura ECLIPSE se erige para formulación de preguntas relacionadas con la gestión. Por último, para la búsqueda de evidencias cualitativas se han configurado los modelos SPICE y SPIDER adecuando sus componentes al fenómeno cualitativo. Conclusiones: Estos modelos estandarizadas se comportan como un instrumento idóneo para guiar la estrategia de búsqueda y delimitar el área de interés. Dada la gran variedad de piezas que integran las estructuras, su conocimiento exhaustivo acrecienta sus usos potenciales. Estas estructuras no deben ser consideradas como una guía rígida a la que ceñirse ineludiblemente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

América Latina es considerada la región más desigual del planeta. Es el Continente donde, según múltiples fuentes, las polarizaciones son mayores en diversos campos, y el acceso a las oportunidades es marcadamente disímil para los diferentes sectores sociales. ¿Cómo impacta la inequidad latinoamericana el fundamental campo de la salud? ¿Qué problemas determina en esta área decisiva de la vida de las sociedades, y qué obstáculos y trabas pone al avance de los esfuerzos para mejorar la salud?.A pesar de su clara relevancia, este tema ha sido limitadamente puesto a foco. El objetivo de este trabajo es llamar la atención sobre el mismo, y contribuir a estimular este debate tan necesario. Para ello se subraya, en primer término, el papel central de la salud para el desarrollo, se reseñan las amplias brechas que existen, a pesar de ello, a nivel mundial entre países, y a su interior, se encaran ciertos difundidos mitos sobre cómo superar los problemas en salud, se exploran algunos de los principales impactos de la desigualdad de América Latina sobre aspectos básicos del campo de la salud y, finalmente, se sugieren algunas líneas de la gran tarea por realizar para enfrentar el peso de la inequidad sobre la salud pública.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tese (doutorado)—Universidade de Brasília, Instituto de Física, 2015.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este reporte se presentan los resultados de una investigación que se llevó a cabo con una muestra de cuarenta estudiantes del nivel superior de la carrera de Ingenieria en Comunicaciones y Electrónica del Instituto Politécnico Nacional, a quienes se les presentaron problemas del área de circuitos eléctricos que deberian modelar matemáticamente. De este proceso se determinaron los elementos metacognitivos que entran en acción al momento de la resolución de los problemas. Al procesar la información se hizo una clasificación de estos elementos metacognitivos para establecer categorias que son fuente de apoyo a la instrucción de la matemática en el contexto de la ingeniería. El marco teórico en que se mueve la investigación es la matemática en el contexto de las ciencias en su fase de estrategia didáctica y toma la concepción de metacognición que describe Santos como monitoreo y autoevaluación de los procesos cognitivos, así como las habilidades metacognitivas de Nickerson. En la metodología de investigación se emplea la entrevista clínica y la interpretación de la información de cada individuo se lleva a cabo en términos de los elementos teóricos; la investigación es de tipo etnográfico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de Mestrado, Engenharia Elétrica e Eletrónica, Instituto Superior de Engenharia, Universidade do Algarve, 2014

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se realizan simulaciones de excavaciones profundas en suelos de origen aluvial en la ciudad de Sabaneta, mediante el empleo de modelos en elementos finitos integrados por el software PLAXIS® -- Los desplazamientos horizontales son comparados con mediciones de inclinómetros instalados en el trasdós del muro diafragma anclado del proyecto Centro Comercial Mayorca Fase III, localizado en el municipio de Sabaneta, Antioquia -- Finalmente, se concluye acerca de la sensibilidad de los parámetros más relevantes según el modelo constitutivo empleado y la viabilidad en su aplicación para la solución del problema evaluado

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A estimativa volumétrica, a partir do escaneamento digital de florestas por meio do uso do LIDAR, potencializa o emprego de técnicas de manejo de precisão no planejamento da exploração nas florestas tropicais. A utilização dessa tecnologia de sensoriamento remoto permite a incorporação de variáveis da morfometria de copa, ainda pouco empregadas e menos conhecidas em decorrência da dificuldade de coleta em campo. O objeto deste estudo foi construir equações capazes de estimar o volume do fuste de árvores individuais dominantes e codominantes, a partir da morfometria da copa obtida por meio do LIDAR aerotransportado, considerando duas situações de inventário florestal: a) com a coleta do DAP, conjuntamente com as variáveis morfométrica da copa obtidas pelo LIDAR e b) apenas com os dados de morfometria de copa. Para seleção dos modelos foram considerados: a matriz de correlação das variáveis preditoras e a combinação das variáveis que geraram os melhores resultados estatísticos pelos critérios Syx, Syx(%) e Pressp, e que foram homocedásticos e com disposição dos resíduos normais e independentes. Para as melhores equações foram realizadas análise de influência. Os resultados estatísticos do ajuste dos modelos para as duas situações permitiram selecionar equações com e sem DAP, com resultados R2 aj.(%) de a) 92,92 e b) 79,44; Syx (%) de a) 16,73 e b) 27,47; e, critério de Pressp de a) 201,15 m6 e b) 537,47 m6, respectivamente. Por meio das variáveis morfométricas, foi possível desenvolver equações capazes de estimar com precisão o volume do fuste de árvores dominantes e codominantes em florestas tropicais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Brazil and around the world, oil companies are looking for, and expected development of new technologies and processes that can increase the oil recovery factor in mature reservoirs, in a simple and inexpensive way. So, the latest research has developed a new process called Gas Assisted Gravity Drainage (GAGD) which was classified as a gas injection IOR. The process, which is undergoing pilot testing in the field, is being extensively studied through physical scale models and core-floods laboratory, due to high oil recoveries in relation to other gas injection IOR. This process consists of injecting gas at the top of a reservoir through horizontal or vertical injector wells and displacing the oil, taking advantage of natural gravity segregation of fluids, to a horizontal producer well placed at the bottom of the reservoir. To study this process it was modeled a homogeneous reservoir and a model of multi-component fluid with characteristics similar to light oil Brazilian fields through a compositional simulator, to optimize the operational parameters. The model of the process was simulated in GEM (CMG, 2009.10). The operational parameters studied were the gas injection rate, the type of gas injection, the location of the injector and production well. We also studied the presence of water drive in the process. The results showed that the maximum vertical spacing between the two wells, caused the maximum recovery of oil in GAGD. Also, it was found that the largest flow injection, it obtained the largest recovery factors. This parameter controls the speed of the front of the gas injected and determined if the gravitational force dominates or not the process in the recovery of oil. Natural gas had better performance than CO2 and that the presence of aquifer in the reservoir was less influential in the process. In economic analysis found that by injecting natural gas is obtained more economically beneficial than CO2

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La región volcánica de Campo de Calatrava se ha interpretado como un proceso de volcanismo intraplaca desarrollado durante el Neógeno. Se han propuesto dos modelos geodinámicos contrapuestos para explicar el origen de este volcanismo: a) un proceso de rifting en un contexto extensional con un adelgazamiento localizado de corteza; b) un proceso flexural de la litosfera en un contexto compresivo débil sin adelgazamiento de corteza. El análisis de las anomalías gravimétricas de Bouguer y una modelización gravimétrica 2D a escala cortical contribuyen a discriminar entre los modelos geodinámicos propuestos para el origen del volcanismo. Los modelos gravimétricos se han constreñido en base a los estudios sísmicos profundos existentes en la zona y a la cartografía geológica regional. Los modelos gravimétricos descartan un adelgazamiento cortical, lo que cuestiona el modelo de rifting abortado y apoyan la hipótesis alternativa del proceso flexural de la litosfera en régimen compresivo débil como origen del volcanismo bético.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Han transcurrido varios años desde que se comenzó a hablar de Solvencia II y hoy es una realidad; cuyo objetivo es el desarrollo y establecimiento de un nuevo sistema que permita determinar los recursos propios mínimos a requerir a cada aseguradora, en función de los riesgos asumidos y la gestión que se realice de ellos. Así mismo, engloba un conjunto de iniciativas para la revisión de la normativa existente, la valoración y supervisión de la situación financiera global de las entidades aseguradoras y modos de actuación interna de las mismas. Uno de los temas más controvertidos bajo esta regulación es cómo conseguir una adecuada evaluación de los riesgos asumidos por las entidades. Esto se traduce en lograr identificar las causas que puedan suponer una pérdida en sus recursos; así como en innovar en el campo técnico para lograr una correcta cuantificación de los riesgos posibles en los que podrían estar expuestas las entidades. El objetivo de este trabajo es mostrar la posibilidad de utilizar dos enfoques metodológicos distintos para la evaluación de riesgos: uno no paramétrico para lo cual se recurrirá a las técnicas de Inteligencia Artificial y, en contraste, la aplicación de los Modelos Lineales Generalizados provenientes de la estadística paramétrica. De esta forma, lograr establecer una serie de reglas de decisión básicas, a manera de herramienta de clasificación, que puedan ser capaces de determinar los perfiles de clientes susceptibles a la cancelación de su póliza. La aplicación práctica de ambas metodologías, se llevará a cabo con la finalidad de analizar el Riesgo de Caída de Cartera; el cual hace referencia a uno de los tantos riesgos medibles que el sector habrá de tener en cuenta de acuerdo a Solvencia II...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso de tecnologias no setor florestal tem permitido dentre outras possibilidades, conhecer a real condição da floresta desempenhando o menor trabalho possível, o que garante uma maior eficiência ao se tratar, por exemplo, em tipos de amostragem no inventário florestal. A pesquisa teve como objetivo testar a eficiência da amostragem aleatória e sistemática em quatro níveis de intensidade amostral para produzir estimativas de biomassa seca acima do solo e comparar mapas de predição de biomassa com dados gerados pelo LIDAR (Light Detection and Ranging). O trabalho foi realizado em uma reserva florestal de 800 ha do Campo Experimental da Embrapa Acre. Os dados foram fornecidos pela Embrapa Acre e gerados em duas fases, a primeira por meio de um inventário 100%, no qual foi utilizado para simular a amostragem na área de estudo, sendo utilizado todas as árvores vivas com DAP > 30 cm, a segunda fase através de dados LIDAR, ou seja, utilizando o perfilhamento à Laser aerotransportado. Para simular a amostragem foram utilizados três tamanhos de parcelas distintos 20mx20m, 50mx50m e 100mx100m em diferentes intensidades amostrais que foram 0,5%, 1%, 5% e 10%. O parâmetro utilizado para comparação foi o da biomassa seca acima do solo em Mg.ha-1 pelo teste Tukey, a 95% de probabilidade através do programa Minitab17 e as parcelas foram sorteadas e distribuídas por meio de simulações de instalação de parcelas utilizando o Arc GIS 10. Os dados LIDAR foram amostrados por uma empresa contratada, a partir deles foram realizados todos os modelos e a extrapolação das métricas para toda a área através do comando gridmetrics. Os mapas de predição foram confeccionados pela ferramenta de interpolação vizinhos próximos do Arc GIS 10 e as comparações entre os mapas foram feitas pela ferramenta do Arc GIS 10, Zonal statistic. A biomassa média obtida do inventário florestal foi de 155,2 Mg.ha-1, sendo que o tamanho de parcela ótimo encontrado foi de 50mx50m e os tratamentos que mais se aproximaram da média do inventário florestal foram o aleatório com intensidade amostral de 5% e o sistemático com intensidade amostral de 10%. Os tratamentos que atenderam o erro aceitável de 10% foram à amostragem aleatória com intensidades amostrais de 5% e 10% e a amostragem sistemática com intensidade amostral de 10%. Não houve diferença estatística significativa entre os tratamentos. Os mapas de vegetação baseados na biomassa que melhor representaram a biomassa seca acima do solo no tamanho de parcela 50mx50m foram na amostragem aleatória com intensidade amostral de 10%, e na amostragem sistemática com intensidades amostrais de 5% e 10%, comparando com os mapas gerados a partir do inventário 100% e dos dados LIDAR. Pode-se concluir que o tamanho ótimo de parcela foi de 50mx50m, com intensidades amostrais acima de 5% não havendo diferença entre os métodos de amostragem e que os mapas gerados pelo inventário 100% e pelos dados LIDAR foram equivalentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde o final do século XIX, estudiosos das mais diversas regiões do mundo vêm oferecendo valiosas contribuições visando o melhor entendimento sobre gênese e evolução das paisagens.  Observa-se, porém, que além da preocupação em reconstituir a história de antigos ambientes, há ainda o desafio do prognóstico quanto ao futuro das formas atuais. Dentro desta perspectiva, surgiram os modelos evolutivos aqui discutidos: o de Pedimentação e Pediplanação (proposto por King na década de 50), o de Equilíbrio Dinâmico (sugerido por Gilbert no final do século XIX e retomado por Hack na década de 60), e o Probabilístico (difundido por Leopold e colaboradores na década de 60).  Cada um destes modelos reflete tanto as tendências intrínsecas a Geomorfologia, quanto as influências externas a este campo, ou seja, as visões de mundo das ciências em seu aspecto mais amplo, como também as tendências filosóficas e políticas de uma época.  Deve-se, portanto, enfatizar que, tendo cada uma das percepções teórico-conceituais prestigiado mais determinados aspectos de processos específicos, cada uma delas ofereceu importantes contribuições, de modo que nenhuma pode ser considerada absoluta.  Todas estão presentes direta ou indiretamente, e em maior ou menor proporção, nos trabalhos realizados pelos estudiosos do presente, em especial, geógrafos físicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudio investiga el uso de Modelos de Elevación Digital (MEDs) como medio para determi-nar errores en mapas topográfcos, usando estadísticas descriptivas y puntos de control de eleva-ción como medidas de error. Se escogió un MED interpolado de curvas de nivel a escala 1:10000 como una fuente independiente de alta precisión, basándose en la propuesta geo-espacial de la Federal Geographic Data Committe, FGDC (1998). El área utilizada para probar el modelo se ubica en un sector de la región Central de Costa Rica, en la cabecera del cantón central de San Ramón en la provincia de Alajuela. Esta región presenta una topografía variada, constituida por colinas, valles, cursos fuviales que se ubican sobre formaciones volcánicas, siendo  los princi-pales componentes del paisaje. La exactitud y confabilidad de  los resultados de esos modelos depende de  los errores  inherentes en  los MEDs, así como de  los datos originales de elevación y los procesos de elaboración, especialmente aquellos creados con curvas de nivel que incluyen las comparaciones de rangos de elevación y la visualización de errores en superfcie, basados en la recolección de datos en el campo.