1000 resultados para Errores ortográficos
Resumo:
El objetivo de este proyecto se basa en comprobar si es posible encontrar métodos de ajuste con los que poder corregir observaciones altimétricas con errores groseros, que pueden ser causados por el operador al realizar la observación o por otras circunstancias. El ajuste por el método clásico de mínimos cuadrados tiende a repartir los errores cometidos entre todas las observaciones, lo que da como resultado residuos muy elevados cuando se realiza el ajuste de una red cuyas observaciones poseen un error grosero o varios. Habitualmente, siempre y cuando haya redundancia en la toma de datos, se procederá a quitar la observación con mayor residuo y se realizará de nuevo el ajuste sin tener en cuenta dicha observación. También se estudiará el Test de Baarda y su comportamiento según sea el error cometido y el número de errores groseros que aparezcan en el ajuste. Pero el objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que esta investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado en altimetría y me inspiró un proyecto realizado anteriormente bastante similar a este pero centrándose en planimetría, con conclusiones muy favorables, lo que me animó a continuarlo centrándome en la altimetría.
Resumo:
Este trabajo trata de la aplicación de los códigos detectores y correctores de error al diseño de los Computadores Tolerantes a Fallos, planteando varias estrategias óptimas de detección y corrección para algunos subsistemas. En primer lugar,"se justifica la necesidad de aplicar técnicas de Tolerancia a Fallos. A continuación se hacen previsiones de evolución de la tecnología de Integración, así como una tipificación de los fallos en circuitos Integrados. Partiendo de una recopilación y revisión de la teoría de códigos, se hace un desarrollo teórico cuya aplicación permite obligar a que algunos de estos códigos sean cerrados respecto de las operaciones elementales que se ejecutan en un computador. Se plantean estrategias óptimas de detección y corrección de error para sus subsistemas mas Importantes, culminando en el diseño, realización y prueba de una unidad de memoria y una unidad de proceso de datos con amplias posibilidades de detección y corrección de errores.---ABSTRACT---The present work deals with the application of error detecting and correctíng codes to the désign of Fault Tolerant Computers. Several óptimo» detection and correction strategies are presented to be applied in some subsystems. First of all, the necessity of applying Fault Tolerant techniques is explained. Later, a study on íntegration technology evolution and typification of Integrated circuit faults 1s developed. Based on a compilation and revisión of Coding Theory, a theoretical study is carried out. It allows us to force some of these codes to be closed over elementary operations. Optimum detection and correction techniques are presented for the raost important subsystems. Flnally, the design, building and testing of a memory unit and a processing unit provided with wlde error detection and correction posibilities 1s shown.
Resumo:
Sign.: a8, b6, A--Cc8
Resumo:
Texto en latín: pp. 353-384
Resumo:
Sign.: a-c8, c6, A-Z8, Aa2
Resumo:
Sign.: a-b8, A-Z8, Aa-Dd8, Ee2
Resumo:
Sign.: a-c8,d2, A-Bb8, Cc4
Resumo:
Sign.: a-b8, c6, A-Z8, Aa-Bb8
Resumo:
Sign.: [calderón]-[calderón]8, 3[calderón]4, 4[calderón]2, A-Q8, R-S4, T-Z8, Aa-Dd8, Ee2
Resumo:
Sign.: a8, c2, b1, c5, c8, A-Z8, Aa-Cc8, Dd2
Resumo:
Hay un ejemplar encuadernado con: Discursos gratulatorios que en las visitas publicas... practicadas por la... ciudad de Valencia, cerca de... Don Iosef Climent... i Fr. Don Rafael Lasala... (XVIII/4278).
Resumo:
Hoy en día es común estudiar los patrones globales de biodiversidad a partir de las predicciones generadas por diferentes modelos de nicho ecológico. Habitualmente, estos modelos se calibran con datos procedentes de bases de datos de libre acceso (e.g. GBIF). Sin embargo, a pesar de la facilidad de descarga y de la accesibilidad de los datos, la información almacenada sobre las localidades donde están presentes las especies suele tener sesgos y errores. Estos problemas en los datos de calibración pueden modificar drásticamente las predicciones de los modelos y con ello pueden enmascarar los patrones macroecológicos reales. El objetivo de este trabajo es investigar qué métodos producen resultados más precisos cuando los datos de calibración incluyen sesgos y cuáles producen mejores resultados cuando los datos de calibración tienen, además de sesgos, errores. Para ello creado una especie virtual, hemos proyectado su distribución en la península ibérica, hemos muestreado su distribución de manera sesgada y hemos calibrado dos tipos de modelos de distribución (Bioclim y Maxent) con muestras de distintos tamaños. Nuestros resultados indican que cuando los datos sólo están sesgados, los resultados de Bioclim son mejores que los de Maxent. Sin embargo, Bioclim es extremadamente sensible a la presencia de errores en los datos de calibración. En estas situaciones, el comportamiento de Maxent es mucho más robusto y las predicciones que proporciona son más ajustadas.
Resumo:
"A la H. Sociedad de Geografía y Estadística ... noviembre de 1901."
Resumo:
Includes index.