1000 resultados para Sistemas expertos (Informática)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La complejidad de los sistemas actuales de computación ha obligado a los diseñadores de herramientas CAD/CAE a acondicionar lenguajes de alto nivel, tipo C++, para la descripción y automatización de estructuras algorítmicas a sus correspondientes diseños a nivel físico. Los proyectos a realizar se encuadran dentro de una línea de trabajo consistente en estudiar la programación, funcionamiento de los lenguajes SystemC y SystemVerilog, sus herramientas asociadas y analizar cómo se adecuan a las restricciones temporales y físicas de los componentes (librerías, IP's, macro-celdas, etc) para su directa implementación. En una primera fase, y para este TFG, se estudiarán los componentes que conforman el framework elegido que es SystemC y su inclusión en herramientas de diseño arquitectural. Este conocimiento nos ayudará a entender el funcionamiento y capacidad de dicha herramienta y proceder a su correcto manejo. Analizaremos y estudiaremos unos de los lenguajes de alto nivel de los que hace uso dicha herramienta. Una vez entendido el contexto de aplicación, sus restricciones y sus elementos, diseñaremos una estructura hardware. Una vez que se tenga el diseño, se procederá a su implementación haciendo uso, si es necesario, de simuladores. El proyecto finalizará con una definición de un conjunto de pruebas con el fin de verificar y validar la usabilidad y viabilidad de nuestra estructura hardware propuesta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día estamos inundados de cientos de sistemas digitales que juegan un papel discreto pero agradecido en muchas de nuestras actividades diarias. No hace muchos años, no sabíamos lo que era un mando a distancia y, hoy en día, no sabemos vivir sin él. Muchos productos de consumo basados en sistemas digitales son ya artículos de casi primera necesidad. La revolución digital, basada en Ia microelectrónica, Ia informática y las telecomunicaciones, comenzó en los años setenta con Ia aparición del microprocesador. En los 80, los microprocesadores facilitaron Ia llegada de los ordenadores personales (PC, Personal Computer) en un momento en el que nadie podía sospechar el éxito que alcanzarían. En los 90, triunfó el PC multimedia y su conexión a red junto con el auge de Ia telefonía móvil de segunda generación. La llegada del siglo XXI ha consolidado Internet y ha puesto las bases para el despliegue de Ia tercera generación de móviles. Los siguientes pasos apuntan entornos inteligentes donde terminales multimedia inalámbricos se comunicarán de forma espontánea con dispositivos próximos y podrán acceder a cualquier red de comunicaciones. Este manual pretende repasar esta revolución estudiando, desde un punto de vista hardware, los sistemas digitales basados en microprocesadores de última generación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work aims to analyze risks related to information technology (IT) in procedures related to data migration. This is done considering ALEPH, Integrated Libray System (ILS) that migrated data to the Library Module present in the software called Sistema Integrado de Gestão de Atividades Acadêmicas (SIGAA) at the Zila Mamede Central Library at the Federal University of Rio Grande do Norte (UFRN) in Natal/Brazil. The methodological procedure used was of a qualitative exploratory research with the realization of case study at the referred library in order to better understand this phenomenon. Data collection was able once there was use of a semi-structured interview that was applied with (11) subjects that are employed at the library as well as in the Technology Superintendence at UFRN. In order to examine data Content analysis as well as thematic review process was performed. After data migration the results of the interview were then linked to both analysis units and their system register with category correspondence. The main risks detected were: data destruction; data loss; data bank communication failure; user response delay; data inconsistency and duplicity. These elements point out implication and generate disorders that affect external and internal system users and lead to stress, work duplicity and hassles. Thus, some measures were taken related to risk management such as adequate planning, central management support, and pilot test simulations. For the advantages it has reduced of: risk, occurrence of problems and possible unforeseen costs, and allows achieving organizational objectives, among other. It is inferred therefore that the risks present in data bank conversion in libraries exist and some are predictable, however, it is seen that librarians do not know or ignore and are not very worried in the identification risks in data bank conversion, their acknowledge would minimize or even extinguish them. Another important aspect to consider is the existence of few empirical research that deal specifically with this subject and thus presenting the new of new approaches in order to promote better understanding of the matter in the corporate environment of the information units

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las matemáticas, como muchas otras áreas del pensamiento, han sufrido en el tercio central del siglo XX el impacto de la corriente filosófica estructuralista. Esta tendía a desplazar el centro de atención hacia los problemas de fundamentación por una parte, y por otra subrayaba la importancia de las estructuras abstractas como la de conjunto, grupo u otras, que se presentan en diversas áreas de las matemáticas. En general la corriente estructuralista impregna a las matemáticas de los métodos del álgebra y es compañera inevitable de una tendencia hacia la abstracción. El estructuralismo ha estado lejos de ser un factor determinante en el desarrollo de la producción matemática en el último siglo, ya que el volumen ingente de investigación volcada hacia las aplicaciones ha pesado de forma decisiva en el resultado global. Sin embargo, es en el ámbito de la enseñanza de las matemáticas donde la influencia del estructuralismo ha sido más profunda, penetrando en los programas a todos los niveles educativos y provocando que al estudiar matemáticas, los estudiantes se queden con la impresión de que no hay nada nuevo en matemáticas desde Euclides o Pitágoras, es decir, desde hace más de 2000 años. Con un poco de suerte, algunos se cree que las matemáticas dejaron de desarrollarse después de la creación del cálculo diferencial e integral (hace unos 300 años), en cambio no tenemos la misma impresión sobre otras ciencias como física, química o biología. La geometría fractal, cuyos primeros desarrollos datan de finales del siglo XIX, ha recibido durante los últimos treinta años, desde la publicación de los trabajos de Mandelbrot, una atención y un auge crecientes. Lejos de ser simplemente una herramienta de generación de impresionantes paisajes virtuales, la geometría fractal viene avalada por la teoría geométrica de la medida y por innumerables aplicaciones en ciencias tan dispares como la Física, la Química, la Economía o, incluso, la Informática.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente manual está orientado a proporcionar a los alumnos de los primeros cursos de las Escuelas de Ingeniería Informática unos conocimientos sobre los Dispositivos Electrónicos adaptados, tanto en contenidos como en profundidad, a las necesidades de su especialidad. En esta línea, se han incluido únicamente los contenidos teóricos que consideramos imprescindibles, centrados en una descripción mínima de Ia estructura física y del funcionamiento a nivel microscópico de los dispositivos de estadosolido,junto con los modelos que permiten analizar el comportamiento de estos dispositivos cuando forman parte de un circuito electrónico. Se Ie ha dado especial importancia a Ia descripción de los métodos de análisis de circuitos electrónicos, fundamentalmente el análisis del punto de operación y de Ia característica de transferencia estática, junto con una introducción al análisis transitorio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La educación es el pilar fundamental de los sistemas de aprendizaje en la sociedad moderna. Numerosos estudios alrededor del mundo se centran en buscar nuevas alternativas para complementar los sistemas educativos con experiencias cada vez más amenas e interactivas para los alumnos, con el objetivo de mantener su interés y a la vez facilitar el trabajo de los docentes. Para ello se utilizan y desarrollan técnicas cada vez más innovadoras que han demostrado resultados positivos en la formación académica de las nuevas generaciones. Las Microanotaciones son una herramienta que, orientada a entornos educativos, ofrecen la oportunidad de expresar en pocos caracteres una idea. La Gamificación busca convertir el aprendizaje en un juego, basándose en el reconocimiento del progreso usando premios (trofeo y medallas) por la realización de acciones concretas que demuestren los conocimientos y formación adquiridos. Ambas técnicas han demostrado su fiabilidad y alto potencial para la formación académica como herramientas de aprendizaje pero trabajándose por separado en diferentes plataformas e investigaciones. Se considera que Microblogging y Gamificación podrían ser herramientas fusionables para ofrecer servicios de formación e interacción académica, asegurando que se dará el servicio dentro de parámetros aceptables de desempeño.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El origen del presente trabajo titulado “PROCESO DE AUDITORIA DE SISTEMAS BASADO EN EL DOMINIO ENTREGAR Y DAR SOPORTE DEL MODELO COBIT APLICADO AL SISTEMA DE ADMINISTRACION FINANCIERA INTEGRADO MUNICIPAL” se fundamenta en el auge del uso de tecnologías de información para el procesamiento de las operaciones y actividades de las instituciones públicas y privadas. El objetivo de este trabajo es desarrollar un proceso de Auditoría de Sistemas, tomando como base la metodología COBIT que específicamente está diseñada para la evaluación de Sistemas de Información. Para el desarrollo de la investigación se realizó un estudio analítico, con el fin de comprobar y comprender la problemática identificada, para lo cual se consideraron como unidades de observación las alcaldías que tienen implementado SAFIMU II, las cuales son: Antiguo Cuscatlán, Ciudad Arce, San Antonio del Monte, Acajutla, Juayua y San Martin; en tal sentido se desarrolló un cuestionario para recabar información, dirigido al personal de Tesorería, Contabilidad e Informática de las instituciones anteriormente mencionadas. Los resultados obtenidos se analizaron e interpretaron a través de la tabulación y gráficos de los mismos. La información obtenida reveló que las municipalidades tienen deficiencias con respeto al control interno debido a que no se practica auditorías al sistema donde se dé a conocer las vulnerabilidades, áreas a mejorar y áreas de oportunidad de sistema; esto conlleva a errores u omisiones en el procesamiento de la información, razón por la cual los usuarios consideran que la confiabilidad de la reportes que suministra el sistema se considera medio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El incremento permanente de las expectativas y necesidades relacionada con la informática, al igual que la actualización continua de los elementos que componen la tecnología de este campo, obliga a las entidades que la aplican a contar con controles, políticas y procedimientos que aseguren a la alta dirección que los recursos humanos, materiales y financieros involucrados, son protegidos adecuadamente y que se orienten a la rentabilidad y competitividad del negocio. La tecnología de informática, traducida en hardware, software, sistemas de información, investigación tecnológica, redes locales, bases de datos, ingeniería de software, telecomunicaciones, servicios y organización de informática es una herramienta estratégica que brinda rentabilidad y ventaja competitiva a los negocios frente a sus similares en el mercado; pero puede originar costos y desventajas competitivas si no es bien administrada y dirigida por el personal encargado. El desarrollo acelerado de la tecnología de computación y la significativa expansión del uso de computadoras para realizar tareas contables, han aumentado considerablemente la necesidad que tenemos de conocer con detalle los diversos sistemas de computación comúnmente en uso y los correspondientes procedimientos de control. Lo que resulta innegable es que la informática se convierte cada día en una herramienta permanente de los procesos principales de los negocios, en una fuerza estratégica, un aliado confiable y oportuno. Todo lo anterior es posible tenerlo en la empresa si se implantan controles y esquemas de seguridad requeridos para su aprovechamiento óptimo. Los contadores públicos en nuestro medio carecen de una guía práctica para la evaluación del control interno en informática que conlleve al desarrollo de la auditoria en forma eficiente, oportuna y profesional. La respuesta siempre ha existido: mediante evaluaciones oportunas y completas de dicha función por personal calificado (o sea, consultores externos, auditores en informática), o evaluaciones periódicas por el mismo personal de informática entre otras estrategias. El objetivo principal de la guía práctica para la evaluación del control interno en la auditoría en informática es el de brindar al auditor una idea de los aspectos de control que podrá encontrar en los diversos sistemas electrónicos de procesamiento de datos actualmente en uso. El trabajo está orientado a proporcionar una metodología específica para que sirva de guía al profesional de la contaduría pública en el desarrollo y diseño de la evaluación del control interno para auditoría de informática, así como para la captación de información en forma lógica, ordenada y comprensible para facilitar su uso posterior al Recomendar políticas y procedimientos que aseguren la calidad y eficiencia en cada una de las funciones de informática, así como los productos y servicios de esta área.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La autoorganización es un proceso de aprendizaje no supervisado mediante el cual se descubren características, relaciones, patrones significativos o prototipos en los datos. Entre los sistemas neuronales autoorganizados más usados destaca el el mapa autoorganizado o SOM (Self-Organizing Map), el cual ha sido aplicado en multitud de campos distintos. Sin embargo, este modelo autoorganizado tiene varias limitaciones relacionadas con su tamaño, topología, falta de representación de relaciones jerárquicas, etc. La red neuronal llamada gas neuronal creciente o GNG (Growing Neural Gas), es un ejemplo de modelo neuronal autoorganizado con mayor flexibilidad que el SOM ya que está basado en un grafo de unidades de proceso en vez de en una topología fija. A pesar de su éxito, se ha prestado poca atención a su extensión jerárquica, a diferencia de muchos otros modelos que tienen varias versiones jerárquicas. El gas neuronal jerárquico creciente o GHNG (Growing Hierarchical Neural Gas) es una extensión jerárquica del GNG en el que se aprende un árbol de grafos, donde el algoritmo original del GNG se ha mejorado distinguiendo entre una fase de crecimiento y una fase de convergencia. Los resultados experimentales demuestran las capacidades de autoorganización y aprendizaje jerárquico de esta red.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el siglo XXI, cada institución educativa tiene que empezar por aceptar la necesidad de transformarse en una organización competitiva; y debe adaptar los procesos educativos para facilitar el aprendizaje tanto personal como colectivo. Los sistemas de enseñanza deben atender a los cambios sociales, económicos y tecnológicos. En la actualidad, los cambios que afectan a las instituciones educativas configuran un nuevo contexto, ya que la presencia de las nuevas tecnologías de la información y la comunicación (NTIC) en la sociedad, la necesidad de formar profesionales competentes para tiempos de cambio, la continua actualización de estos profesionales, demanda nuevas metodologías de aprendizaje-enseñanza y requiere, también, nuevos modelos adecuados a ellas. Fernández Tilve y Sanjuán Roca (2014) aseguran que “estamos avanzando, con cierta vertiginosidad, hacia modelos de aprendizaje alternativos, transformando las prácticas de formación y la estructuras paradigmáticas de los campos del saber. No podemos seguir manteniendo tan sólo estructuras de formación de corte presencial basadas en la mera transmisión de la información”. Las instituciones universitarias están buscando formas de proporcionar al estudiante oportunidades de aprendizaje de calidad, a menor costo. Sin embargo, las iniciativas de las universidades en el uso de la tecnología en la educación no dejan de ser experiencias descentralizadas, porque estas no han logrado que el profesorado cambie la forma de enseñar. A pesar de ello, reconocen que hay una revolución en las tecnologías, sin embargo, el por ciento del profesorado que sigue utilizando el modelo tradicional es muy alto. Uno de los retos mayores que traen las nuevas tecnologías es la formación de los docentes en el uso y la aplicación de estas dentro del entorno educativo, de tal manera que puedan enseñar y preparar para el futuro a todos los que han nacido en la era digital. Las NTIC abren un nuevo reto para los conocimientos y las destrezas del profesorado, así como la del estudiante...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A comunicação verbal humana é realizada em dois sentidos, existindo uma compreensão de ambas as partes que resulta em determinadas considerações. Este tipo de comunicação, também chamada de diálogo, para além de agentes humanos pode ser constituído por agentes humanos e máquinas. A interação entre o Homem e máquinas, através de linguagem natural, desempenha um papel importante na melhoria da comunicação entre ambos. Com o objetivo de perceber melhor a comunicação entre Homem e máquina este documento apresenta vários conhecimentos sobre sistemas de conversação Homemmáquina, entre os quais, os seus módulos e funcionamento, estratégias de diálogo e desafios a ter em conta na sua implementação. Para além disso, são ainda apresentados vários sistemas de Speech Recognition, Speech Synthesis e sistemas que usam conversação Homem-máquina. Por último são feitos testes de performance sobre alguns sistemas de Speech Recognition e de forma a colocar em prática alguns conceitos apresentados neste trabalho, é apresentado a implementação de um sistema de conversação Homem-máquina. Sobre este trabalho várias ilações foram obtidas, entre as quais, a alta complexidade dos sistemas de conversação Homem-máquina, a baixa performance no reconhecimento de voz em ambientes com ruído e as barreiras que se podem encontrar na implementação destes sistemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La propuesta de Maestría en Sistemas de Información Geográfica (SIG) y Teledetección (TD) ofrece un nuevo espacio para la especialización en la Ciencia de la Información Geográfica (CIG) en Costa Rica.Constituye un programa de posgrado inter-universitario, entre la Escuela de Ciencias Geográficas (ECG) de la Universidad Nacional (UNA) y la Escuela de Geografía (EG) de la Universidad de Costa Rica (UCR).Ambas con más de 35 años de experiencia en docencia, investigación y extensión plantearon la necesidad de unir capacidades y ofrecer un plan curricular que responda a las demandas de diferentes profesionales que requieren consolidar conocimientos en el área de los SIG y la TD.Este programa de Maestría permite a los profesionales para fortalecer los conocimientos, metodologías, aplicaciones y otros aportes del conocimiento desarrollado en estos campos por las Escuelas de Geografía.Llenando además un vacío existente en las universidades estatales, así como en instituciones públicas y privadas que se encuentran desarrollando nuevas áreas de trabajo.El programa es de carácter multidisplinario, reúne a profesionales de las ciencias exactas, naturales y sociales, cuya formación se verá fortalecida por la visión espacial que maneja la Geografía, y por el aprendizaje de los métodos y técnicas esenciales de disciplinas como la Cartografía, la Fotogrametría, la Geodesia, la Teledetección, los Sistemas de PosicionamientoGlobal, la Geo-Estadística, la Informática, entre otras, todas  ellas muy ligadas al campo disciplinario y a la práctica operativa de los SIG.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study focus on the reconfiguration of educational management in Argentina, Brazil, Chile and Mexico, which was promoted by the new logic of social regulation and the new role attributed to the State, considering each country's own historicity. So, the cultural factors that interfere on the dynamics of the 90' school reform are analyzed. Aspects that show the homogeneity or heterogeneity of these reforms in the region, as well as local specificities that block out the concretization of the reform are underlined. It is shown that the historicity that characterizes the educational reform has taken, in each country, a form that can be called, in Mexico, conservative rupture; in Chile, conservative continuity; in Brazil, conservative renovation; and, in Argentina, interrupted rupture. Some conclusions about the impact of educational reform in the selected countries are recuperated through the analysis of 186 academic texts on the subject.