1000 resultados para COMPLEJIDAD COMPUTACIONAL


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, sensores remotos e computadores de alto desempenho estão sendo utilizados como instrumentos principais na coleta e produção de dados oceanográficos. De posse destes dados, é possível realizar estudos que permitem simular e prever o comportamento do oceano por meio de modelos numéricos regionais. Dentre os fatores importantes no estudo da oceanografia, podem ser destacados àqueles referentes aos impactos ambientais, de contaminação antrópica, utilização de energias renováveis, operações portuárias e etc. Contudo, devido ao grande volume de dados gerados por instituições ambientais, na forma de resultados de modelos globais como o HYCOM (Hybrid Coordinate Ocean Model) e dos programas de Reanalysis da NOAA (National Oceanic and Atmospheric Administration), torna-se necessária a criação de rotinas computacionais para realizar o tratamento de condições iniciais e de contorno, de modo que possam ser aplicadas a modelos regionais como o TELEMAC3D (www.opentelemac.org). Problemas relacionados a baixa resolução, ausência de dados e a necessidade de interpolação para diferentes malhas ou sistemas de coordenadas verticais, tornam necessária a criação de um mecanismo computacional que realize este tratamento adequadamente. Com isto, foram desenvolvidas rotinas na linguagem de programação Python, empregando interpoladores de vizinho mais próximo, de modo que, a partir de dados brutos dos modelos HYCOM e do programa de Reanalysis da NOAA, foram preparadas condições iniciais e de contorno para a realização de uma simulação numérica teste. Estes resultados foram confrontados com outro resultado numérico onde, as condições foram construídas a partir de um método de interpolação mais sofisticado, escrita em outra linguagem, e que já vem sendo utilizada no laboratório. A análise dos resultados permitiu concluir que, a rotina desenvolvida no âmbito deste trabalho, funciona adequadamente para a geração de condições iniciais e de contorno do modelo TELEMAC3D. Entretanto, um interpolador mais sofisticado deve ser desenvolvido de forma a aumentar a qualidade nas interpolações, otimizar o custo computacional, e produzir condições que sejam mais realísticas para a utilização do modelo TELEMAC3D.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Throughout the history of western music, composers have relied on “outside-of-time” structures which have served as musical “prime matter” until the moment of their temporal inscription. These structures have traditionally been the scales, rhythmic values, formal schemes, harmonic rules, etc., that composers have employed over and over again. They are to the composer what marble is to the sculptor or colors are to the painter. The advent of computer technology has opened new avenues that allow composers to develop new structures and enlarge their creative horizon. I started my musical training at a very early age, and at the same time I had a lot of scientific curiosity. As soon as I had my first computer (a Commodore 64), I started to experiment, to establish relationships between scientific processes and the world of sound. To date, and following the footsteps of I. Xenakis (although from a different aesthetic perspective), my compositions have always been informed, to a lesser or greater degree, by some underlying scientific idea, and this task can hardly be achieved without computation. Furthermore, today, computer-composers open the possibility to access and use an ever-growing repository of musical material goes a step forward in this direction. And this raises many questions, some of them of a deep philosophical ground.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hoy en día la cantidad de información de la que el mundo dispone es inmensa y la gran mayoría está al alcance de un click gracias a las tecnologías de la información. Muchos de los recursos que existen en Internet están escritos a mano por personas y para personas, pero este hecho tiene muchas limitaciones, como el idioma, el contenido, las expresiones en la comunicación o la disposición de la información en el texto. Todos estos factores influyen en el lector permitiendo entender mejor o peor los conceptos, relaciones e ideas que se expresan. Un ejemplo de un recurso muy utilizado a día de hoy es Wikipedia, que cuenta con más de cinco millones de artículos en inglés y más de un millón en otros doce idiomas entre los cuales se encuentran el castellano, el francés y el alemán. Por otro lado, existen otros recursos que aportan información de otras formas más interesantes desde el punto de vista de la informática, como pueden ser ConceptNet o WordNet. Las ventajas que ofrecen este tipo de recursos son que no disponen de varios lenguajes, es decir el conocimiento está unificado en uno solo, no tienen estructura de texto y se puede automatizar más fácilmente la inserción de nueva información, lo que se traduce en un crecimiento más rápido del conocimiento. Este tipo de recursos son ideales para su uso en aplicaciones informáticas gracias a que no es necesario un proceso de extracción de información de la fuente. Sin embargo, este tipo de información no está pensada para la lectura por parte de un humano, ya que se enfrentaría a muchos datos de golpe y sin un orden lógico para la comprensión, además de carecer de la conjugación propia o traducción a un idioma concreto. Este trabajo tiene como objetivo principal partir de un recurso de información no legible ni manejable por humanos e ideado para el uso por computadoras, y dar lugar a una interpretación de esta información que permita la lectura y comprensión en lenguaje natural por personas. Podemos verlo como un trabajo que posibilita y facilita el entendimiento Máquina-Hombre. Para ello se hace uso de un sistema de generación de lenguaje natural, inteligencia artificial y de la creatividad computacional. Además, este trabajo forma parte de un proyecto mayor, del que hablaremos en la sección 2.5, en el que se generan nuevos conceptos a partir de otros. El papel que desempeña esta aplicación permite describir los nuevos conceptos generados y poder entenderlos. A la hora de abordar el problema de la generación de texto podemos encontrar varias formas de atacar la cuestión, y todas las soluciones se pueden considerar como válidas. Se implementarán sistemas de diferente complejidad y naturaleza, como generadores básicos de textos o generadores con planificación y otras soluciones comunes en este campo como el uso de plantillas y el estudio de las propiedades de los textos generados por los humanos. Por esta razón, en este trabajo se desarrollarán varios métodos y se valorarán según ciertos criterios como la claridad del texto, su organización, o si se ha hecho un buen uso de la gramática o la ortografía. Como objetivos secundarios de este proyecto podemos remarcar la generación de un servicio web que permita que esté disponible la aplicación para su uso, y aporte valor tanto al mundo de la investigación como al del conocimiento. También se valora la semejanza a los generados por humanos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo bibliotecológico para desarrollar instrumentos de trabajo que nos permitan comunicarnos con las demás unidades y clientes de información, debemos pensar en normalizar nuestros procesos.Normalizar, en el sentido más amplio, significa seguir reglas que hagan un registro uniforme en cualquier lugar del mundo. Esto se logra mediante la aplicación de códigos y normas que han sido aceptadas internacionalmente por los organismos creados para este fin.El valor de la normalización estriba en evitar la duplicación de los esfuerzos de la catalogación en las diferentes unidades de información documental y facilitar el intercambio de datos bibliográficos tan pronto como sea posible. También, cosiste en darle al cliente la posibilidad de localizar la información en un a forma homogénea que obvie las barreras idiomáticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com esta dissertação de mestrado pretende-se chegar a um modelo que permita alinhar os diferentes planos organizacionais de uma organização ou de um domínio pertencente a esta. A metodologia utilizada na condução desta dissertação foi proposta por Raymond Quivy e LucVan Campenhoudt. Esta ajuda o autor e o leitor, a acompanhar gradualmente o desenvolvimento através das várias fases que a metodologia prevê. Para garantir a coerência de um modelo é necessário um estudo prévio do tema em questão, por este motivo foi necessária uma revisão bibliográfica que abrangesse: os conceitos mais generalistas da área de engenharia organizacional, a linguagem e termos técnicos da segurança computacional, o estado atual da problemática da segurança de informação na Força Aérea e possíveis modelos que poderiam revelar-se úteis no desenvolvimento do objetivo desta dissertação como o Bussiness Motivation Model. Durante o desenvolvimento do modelo surgiu a necessidade de definir o conceito de «Plano Organizacional» pois este estava pouco explorado na comunidade científica e fazia parte integrante do tema desta dissertação, definindo-o como tendo um conjunto de atributos que o identifica e universais a qualquer plano da organização. Identificados os atributos dos planos organizacionais foi possível concluir quais os fatores de alinhamento entre eles, a partir deste ponto surgiu a proposta de modelo capaz satisfazer o objetivo desta dissertação. A validação é atingida através de uma instanciação do modelo no domínio da segurança computacional na Força Aérea, com algumas propostas de alinhamento. No último capítulo é feita uma revisão de todo o trabalho, destacando alguns pontos mais importantes e possibilitando assim ao leitor terminar com uma visão global de toda a dissertação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este trabajo es presentar unas bases de conocimiento sobre el denominado General Game Playing (GGP) analizando los conceptos relacionados con esta área que ha surgido recientemente, de forma que nuestro trabajo pueda ser usado como base en futuras investigaciones y tesis relacionadas con la materia. Para ello, se hará un estudio de los enfoques que se han empleado para abordar el problema y se profundizará en otras técnicas algorítmicas, tales como por ejemplo la de Montecarlo Tree Search y los algoritmos bio-inspirados que no se han empleado (o se han empleado poco) en este contexto. Adicionalmente, se realiza una propuesta de un agente autónomo (es decir, un resolutor del problema), implementando un algoritmo bio-inspirado mixto, dentro de la plataforma para la General Video Game Artificial Intelligence Competition (GVGAI), analizando sus resultados y extrayendo conclusiones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Describir la experiencia de los profesionales de enfermería en relación a las dificultades encontradas y los futuros retos de la coordinación asistencial dentro del Servicio Madrileño de Salud (SERMAS) para garantizar una atención integral al enfermo crónico (EC). MÉTODO: Estudio observacional-descriptivo con metodología cualitativa, realizado en el ámbito de la atención primaria del SERMAS, en 2013. Los datos se obtuvieron mediante observación participante, entrevistas en profundidad y grupo de discusión, con profesionales sanitarios seleccionados mediante un muestreo intencional y amplia experiencia en el cuidado y gestión de EC. Para el análisis de los datos se realizó un análisis temático siguiendo las cuatro fases propuestas por Morse y Field (1995). En todo el proceso se tuvieron en cuenta los criterios de calidad descritos por Calderón (2002): adecuación epistemológica y metodológica, relevancia, validez y reflexividad. RESULTADOS: Los resultados se agrupan en 2 temas: (1) Dificultades para una coordinación de calidad y (2) retos en la coordinación sociosanitaria. Observamos que existe un escaso desarrollo del marco político competencial sobre las estrategias que posicionan a la enfermería como el profesional clave de la atención al EC y permiten su visibilización social, de iniciativas de mejora basadas en evidencias científicas, múltiples barreras profesionales, organizativas, estructurales, de diseño tecnológico, relación y gestión que obstaculizan el cambio en la continuidad de cuidados. Existen retos futuros dirigidos a empoderar a los enfermeros reconociendo su liderazgo por parte de la Administración, promover el trabajo colaborativo y adoptar un paradigma de asociación con éxito en los equipos multidisciplinares dirigidos por enfermeros y centrados en los pacientes, mejorar las estrategias de coordinación interniveles asistenciales garantizando eficiencia y calidad, fomentar el empoderamiento de pacientes mediante la autogestión de los cuidados, así como crear sistemas de comunicación e información compatibles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work focuses on the creation and applications of a dynamic simulation software in order to study the hard metal structure (WC-Co). The technological ground used to increase the GPU hardware capacity was Geforce 9600 GT along with the PhysX chip created to make games more realistic. The software simulates the three-dimensional carbide structure to the shape of a cubic box where tungsten carbide (WC) are modeled as triangular prisms and truncated triangular prisms. The program was proven effective regarding checking testes, ranging from calculations of parameter measures such as the capacity to increase the number of particles simulated dynamically. It was possible to make an investigation of both the mean parameters and distributions stereological parameters used to characterize the carbide structure through cutting plans. Grounded on the cutting plans concerning the analyzed structures, we have investigated the linear intercepts, the intercepts to the area, and the perimeter section of the intercepted grains as well as the binder phase to the structure by calculating the mean value and distribution of the free path. As literature shows almost consensually that the distribution of the linear intercepts is lognormal, this suggests that the grain distribution is also lognormal. Thus, a routine was developed regarding the program which made possible a more detailed research on this issue. We have observed that it is possible, under certain values for the parameters which define the shape and size of the Prismatic grain to find out the distribution to the linear intercepts that approach the lognormal shape. Regarding a number of developed simulations, we have observed that the distribution curves of the linear and area intercepts as well as the perimeter section are consistent with studies on static computer simulation to these parameters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este proyecto es desarrollar una aplicación multiplataforma que, dadas las preferencias de los clientes por las posibles características que se pueden dar a un producto, y dados los productos que vende la competencia, decida las características del producto a vender para que éste obtenga el mayor número de clientes, bien de manera inmediata, o bien a largo plazo. La solución óptima de este tipo de problemas es intratable, ya que no se pueden resolver en tiempo polinómico, por lo que nosotros utilizamos soluciones heurísticas, concretamente: algoritmos genéticos, algoritmos minimax, algoritmos de aprendizaje automático y algoritmos de interpolación. Además, realizamos un caso de estudio con datos reales obtenidos a través de una serie de encuestas utilizando una plataforma web, concretamente de la empresa Feebbo, que nos permitió obtener resultados sobre las preferencias de más de 500 encuestados. Las preguntas de las encuestas se centraron en un tipo de producto en particular, en nuestro caso teléfonos móviles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tese de Doutoramento com a especialização em Arquitetura, apresentada na Faculdade de Arquitetura da Universidade de Lisboa, para obtenção do grau de Doutor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This Masters Degree dissertation seeks to make a comparative study of internal air temperature data, simulated through the thermal computer application DesignBuilder 1.2, and data registered in loco through HOBO® Temp Data Logger, in a Social Housing Prototype (HIS), located at the Central Campus of the Federal University of Rio Grande do Norte UFRN. The prototype was designed and built seeking strategies of thermal comfort recommended for the local climate where the study was carried out, and built with panels of cellular concrete by Construtora DoisA, a collaborator of research project REPESC Rede de Pesquisa em Eficiência Energética de Sistemas Construtivos (Research Network on Energy Efficiency of Construction Systems), an integral part of Habitare program. The methodology employed carefully examined the problem, reviewed the bibliography, analyzing the major aspects related to computer simulations for thermal performance of buildings, such as climate characterization of the region under study and users thermal comfort demands. The DesignBuilder 1.2 computer application was used as a simulation tool, and theoretical alterations were carried out in the prototype, then they were compared with the parameters of thermal comfort adopted, based on the area s current technical literature. Analyses of the comparative studies were performed through graphical outputs for a better understanding of air temperature amplitudes and thermal comfort conditions. The data used for the characterization of external air temperature were obtained from the Test Reference Year (TRY), defined for the study area (Natal-RN). Thus the author also performed comparative studies for TRY data registered in the years 2006, 2007 and 2008, at weather station Davis Precision Station, located at the Instituto Nacional de Pesquisas Espaciais INPE-CRN (National Institute of Space Research), in a neighboring area of UFRN s Central Campus. The conclusions observed from the comparative studies performed among computer simulations, and the local records obtained from the studied prototype, point out that the simulations performed in naturally ventilated buildings is quite a complex task, due to the applications limitations, mainly owed to the complexity of air flow phenomena, the influence of comfort conditions in the surrounding areas and climate records. Lastly, regarding the use of the application DesignBuilder 1.2 in the present study, one may conclude that it is a good tool for computer simulations. However, it needs some adjustments to improve reliability in its use. There is a need for continued research, considering the dedication of users to the prototype, as well as the thermal charges of the equipment, in order to check sensitivity