1000 resultados para inteligência computacional
Resumo:
Relatório de estágio de mestrado em Ensino de Informática
Resumo:
El planteo general de este Proyecto de Investigación Trianual incluye el estudio sistemático y actualizado de los procedimientos técnicos y de los métodos experimentales adecuados para la garantía de calidad de los Agregados Reciclados obtenidos de hormigones demolidos, a utilizar en estructuras de cualquier tipo, en general y en pavimentos de autopistas, aeropuertos, carreteras y calles, en particular; por medio de la aplicación de las Especificaciones respectivas a redactar y proponer para su inclusión en las Normas IRAM y en los Reglamentos CIRSOC. (...) El Plan de Trabajo Trianual que se detalla en las páginas siguientes que forman parte de esta Solicitud de Subsidio incluye sintéticamente los siguientes temas: 1995: Caracterización de Hormigones Frescos con Agregados Reciclados. Estudio de la consistencia; Reología del hormigón fresco; Estudio de la trabajabilidad; Análisis de tipo: estático y dinámico; Estudio de la segregación; Estudio de la exudación; Influencia de los aditivos; Redacción de normas y especificaciones. 1996: Caracterización de Hormigones Endurecidos con Agregados Reciclados. Estudio de la microfisuración; Rotura y nivel de solicitación de los hormigones endurecidos; Adherencia entre los agregados reciclados y el mortero de cemento; Determinación experimental de las fisuras por el método ultrasónico y otros; Teoría del daño aplicada a hormigones con agregados reciclados; Análisis de los estados de fisuramiento en compresión y en flexión; Redacción de normas y especificaciones. 1997: Mecánica de la Fractura en Hormigones con Agregados Reciclados. Análisis de los parámetros de fractura en los hormigones; Estudio de la mecánica de la fractura y de la microfisuración; modelación de las fracturas en los hormigones por el método de elementos finitos; Análisis experimental para caracterizar la propagación de fisuras; Fisuramientos por efectos térmicos; Análisis de la fractura en la unión de hormigón nuevo con viejo; Redacción de normas y especificaciones.
Resumo:
Las estructuras laminares se caracterizan por su escaso espesor en relación a las otras dimensiones. Esto las hace muy eficientes por su reducido consumo de material cuando se trata de cubiertas de grandes dimensiones. Para poder construir con pequeños espesores en relación a la luz libre es necesario evitar los esfuerzos de flexión. Esto se logra con adecuadas relaciones entre las cargas, la posición y tipo de apoyos y la configuración geométrica de la cáscara. Desde el siglo pasado el cálculo funicular da solución para el problema de barras en el plano y Gaudí, a comienzos del siglo XX, logró importantes avances con modelos funiculares de hilos y pesas. (...) (...) Simultáneamente con el aspecto experimental que sirve para la generación formal, se ha ido realizando la verificación estática y resistente de los modelos propuestos para acciones gravitatorias simples. Para esto se esta utilizando el programa de elementos finitos para cálculo estructural denominado STRAP. (...) El otro aspecto fundamental para la posible aplicación práctica en la arquitectura de esta tipología estructural es el desarrollo de sistemas tecnológicos apropiados que resulten aceptables económicamente. El plan de trabajo apunta a desarrollar cuatro temas: Tema 1. Antecedentes históricos en la evolución de estructuras funiculares y antifuniculares y de la influencia de los métodos de diseño, análisis y construcción de los resultados arquitectónicos. Aplicación del nuevo método a la resolución de problemas idénticos a edificios reales, para encontrar nuevas posibilidades y comparar resultados. Tema 2. Diseño y análisis morfológico de las cáscaras por medios experimentales y computacionales. Tema 3. Análisis numérico del comportamiento estructural por aplicación de software especializado, como control del adecuado comportamiento estático. Tema 4. Desarrollo tecnológico de sistemas constructivos apropiados y evaluación económica.
Resumo:
Uno de los temas centrales del proyecto concierne la naturaleza de la ciencia de la computación. La reciente aparición de esta disciplina sumada a su origen híbrido como ciencia formal y disciplina tecnológica hace que su caracterización aún no esté completa y menos aún acordada entre los científicos del área. En el trabajo Three paradigms of Computer Science de A. Eden, se presentan tres posiciones admitidamente exageradas acerca de como entender tanto el objeto de estudio (ontología) como los métodos de trabajo (metodología) y la estructura de la teoría y las justificaciones del conocimiento informático (epistemología): La llamada racionalista, la cual se basa en la idea de que los programas son fórmulas lógicas y que la forma de trabajo es deductiva, la tecnocrática que presenta a la ciencia computacional como una disciplina ingenieril y la ahi llamada científica, la cual asimilaría a la computación a las ciencias empíricas. Algunos de los problemas de ciencia de la computación están relacionados con cuestiones de filosofía de la matemática, en particular la relación entre las entidades abstractas y el mundo. Sin embargo, el carácter prescriptivo de los axiomas y teoremas de las teorías de la programación puede permitir interpretaciones alternativas y cuestionaría fuertemente la posibilidad de pensar a la ciencia de la computación como una ciencia empírica, al menos en el sentido tradicional. Por otro lado, es posible que el tipo de análisis aplicado a las ciencias de la computación propuesto en este proyecto aporte nuevas ideas para pensar problemas de filosofía de la matemática. Un ejemplo de estos posibles aportes puede verse en el trabajo de Arkoudas Computers, Justi?cation, and Mathematical Knowledge el cual echa nueva luz al problema del significado de las demostraciones matemáticas.Los objetivos del proyecto son: Caracterizar el campo de las ciencias de la computación.Evaluar los fundamentos ontológicos, epistemológicos y metodológicos de la ciencia de la computación actual.Analizar las relaciones entre las diferentes perspectivas heurísticas y epistémicas y las practicas de la programación.
Resumo:
Estudi elaborat a partir d’una estada a l'Imperial College of London, Gran Bretanya, entre setembre i desembre 2006. Disposar d'una geometria bona i ben definida és essencial per a poder resoldre eficientment molts dels models computacionals i poder obtenir uns resultats comparables a la realitat del problema. La reconstrucció d'imatges mèdiques permet transformar les imatges obtingudes amb tècniques de captació a geometries en formats de dades numèriques . En aquest text s'explica de forma qualitativa les diverses etapes que formen el procés de reconstrucció d'imatges mèdiques fins a finalment obtenir una malla triangular per a poder‐la processar en els algoritmes de càlcul. Aquest procés s'inicia a l'escàner MRI de The Royal Brompton Hospital de Londres del que s'obtenen imatges per a després poder‐les processar amb les eines CONGEN10 i SURFGEN per a un entorn MATLAB. Aquestes eines les han desenvolupat investigadors del Bioflow group del departament d'enginyeria aeronàutica del Imperial College of London i en l'ultim apartat del text es comenta un exemple d'una artèria que entra com a imatge mèdica i surt com a malla triangular processable amb qualsevol programari o algoritme que treballi amb malles.
Resumo:
Neste artigo, apresentam-se os resultados de pesquisa qualitativa em que se objetivou investigar a aplicabilidade do método L.E.SCAnning em empresas sociais de economia peer-to-peer (P2P). A motivação partiu da ideia de a autossustentabilidade ser, a longo prazo, um dos maiores desafios das organizações, especialmente aquelas lastreadas na economia social, dentre elas, as empresas P2P. No entanto, empresas sociais são potencialmente negócios dinâmicos e progressistas com os quais o mercado empresarial poderia aprender, uma vez que experimentam e inovam. Partindo exatamente desse espírito inovador, muitas empresas sociais voltaram-se para o modelo crowdfunding de economia P2P, que se configura como tendência emergente de organização colaborativa de recursos na Web. Sob esse prisma, um dos novos desenvolvimentos em gestão que se aplicam à atividade de organizações com enfoque sistêmico é a prática da Inteligência Estratégica Antecipativa Coletiva (IEAc). Nesse sentido, no estudo de caso investigou-se a empresa social francesa Babyloan para compreender de que maneira a organização busca, monitora e utiliza a informação captada do meio externo para sua atuação, prototipando, com base nesse diagnóstico, a aplicação de um ciclo do método L.E.SCAnning. Os resultados deste estudo sugerem que o entendimento pragmático do cenário externo, por meio da IEAc, favorece decisões que trazem uma marca de empreendedorismo e inovação, e tem no universo da economia social P2P, ambiente fortemente baseado em percepção, um impacto potencial significativo.
Resumo:
En aquesta memòria es presenta el desenvolupament d'un entorn virtual orientat a la didàctica de la lògica proposicional, aplicada en assignatures de Lògica Computacional i Estructura i Tecnologia de Computadors. L'entorn en si té com a objectiu ser un reforç a l'aprenentatge autodidacta per part de l'alumne en aquestes matèries, així com una eina de seguiment per part del professor.
Resumo:
O presente artigo tem como objectivo analisar a pertinência da inteligência emocional nas organizações. São apresentadas as competências intrapessoais e interpessoais que determinam e moldam a inteligência emocional e que devem ser continuamente motivadas e orientadas pelas organizações de forma a contribuir activamente para o sucesso. É ainda e em forma de conclusão apresentada a inteligência emocional como factor-chave para o sucesso empresarial, seja do indivíduo seja da organização em que ele se insira.
Resumo:
Nas últimas décadas a utilização de computadores tornou-se parte integrante da vida das pessoas, permitindo o aparecimento de vários tipos de crimes electrónicos. Neste contexto, é importante que as organizações se preparem para investigar casos que envolvem a informática e adoptem procedimentos válidos e confiáveis que permitem recuperar os dados dos computadores envolvidos em actividades ilícitas. A Forense Computacional, são técnicas que permitem-nos recolher, identificar, analisar e apresentar evidências de crimes digitais. Pretende-se com este trabalho, apresentar as principais técnicas de Forense Computacional em servidor IIS 5.0 da Microsoft.
Resumo:
A alcalinidade excessiva das águas destinadas à fertirrigação pode criar uma série de inconvenientes, que vão desde o entupimento dos emissores, pela precipitação de carbonatos, até a redução da disponibilidade dos micronutrientes para as culturas. Com o propósito de auxiliar a tomada de decisão quanto ao manejo da alcalinidade dessas águas, desenvolveu-se o ALKA 1.0, um software em CLIPPER 5.2, que pode ser rodado em microcomputadores IBM-PC/XT/AT/PENTIUM ou outros 100% compatíveis. A partir do fornecimento do pH original da água de irrigação, da sua alcalinidade total ou subdividida em CO3(2-) e HCO3- (em mmol L-1), e da lâmina de irrigação utilizada durante o ciclo da cultura, o ALKA 1.0 fornece as quantidades de HCl, HNO3, H2SO4 e H3PO4 que devem ser adicionadas à água de irrigação para que o seu pH atinja o valor estipulado pelo usuário. Além do volume de cada ácido a ser adicionado, o programa fornece a quantidade de nutrientes introduzidas pelos ácidos, na dosagem recomendada, bem como o custo total de cada uma das possíveis escolhas. Para tal, cadastram-se, inicialmente, a densidade e a pureza (%p/p) de cada ácido, bem como seu custo por litro. O ALKA 1.0 oferece, ainda, a opção de adições mistas dos diversos ácidos, visando não só à remoção da alcalinidade excessiva da água, mas também a um balanço adequado à cultura em questão dos nutrientes (N, P, S) adicionados via ácido. Por fim, o ALKA 1.0 oferece a possibilidade de trabalhar-se com bancos de dados, pré-cadastrados, que contêm informações sobre as origens (localidades) e fontes (rios, poços, lagos, açudes e outros) de diversas águas, além do seu pH e alcalinidade total. Desta forma, podem-se conhecer as características de manejo da alcalinidade dessas águas em função de características definidas pelo usuário, tais como um município em particular, determinada fonte, pH, e outros. O ALKA 1.0 foi validado com uma mistura sintética de CO3(2-) e HCO3-, com pH 9,19, em que se verificou a eficiência dos cálculos efetuados para o abaixamento do pH para 7,0, 6,5 e 5,5; e com amostras de águas naturais, para o abaixamento do pH para 6,5 e 6,0; obtendo-se resultados bastante satisfatórios. A redução do pH das amostras naturais para 5,0 não foi eficiente.
Resumo:
O ponto de efeito salino nulo (PESN) de amostras de solo é normalmente determinado por método gráfico e corresponde ao valor de pH referente ao ponto de interseção de curvas de titulação potenciométrica. Embora a elaboração dos gráficos em planilhas eletrônicas diminua a subjetividade existente no traçado manual, um tempo considerável é necessário quando a determinação do PESN envolve grande número de amostras. Este trabalho objetivou o desenvolvimento de um programa computacional para a determinação analítica do PESN de amostras de solo, com vistas em eliminar a subjetividade do método gráfico, proporcionar rapidez às determinações e permitir o conhecimento do grau de precisão dos valores calculados. Com o procedimento de cálculo desenvolvido, determinaram-se os valores de PESN a partir de resultados experimentais de titulação potenciométrica obtidos por outros autores. A comparação dos valores calculados pelo programa com os apresentados nos trabalhos consultados, os quais foram obtidos pelos autores por meio do método gráfico convencional, demonstrou ser o método analítico-computacional proposto bastante adequado para a determinação rápida e não-subjetiva do PESN de amostras de solo.
Resumo:
Mitjançant imatges estereoscòpiques es poden detectar la posició respecte dela càmera dels objectes que apareixen en una escena. A partir de lesdiferències entre les imatges captades pels dos objectius es pot determinar laprofunditat dels objectes. Existeixen diversitat de tècniques de visió artificialque permeten calcular la localització dels objectes, habitualment amb l’objectiude reconstruir l’escena en 3D. Aquestes tècniques necessiten una gran càrregacomputacional, ja que utilitzen mètodes de comparació bidimensionals, i pertant, no es poden utilitzar per aplicacions en temps real.En aquest treball proposem un nou mètode d’anàlisi de les imatgesestereoscòpiques que ens permeti obtenir la profunditat dels objectes d’unaescena amb uns resultats acceptables. Aquest nou mètode es basa entransformar la informació bidimensional de la imatge en una informacióunidimensional per tal de poder fer la comparació de les imatges amb un baixcost computacional, i dels resultats de la comparació extreure’n la profunditatdels objectes dins l’escena. Això ha de permetre, per exemple, que aquestmètode es pugui implementar en un dispositiu autònom i li permeti realitzaroperacions de guiatge a través d’espais interiors i exteriors.
Resumo:
Podeu consultar la versió en castellà a http://hdl.handle.net/2445/8957