1000 resultados para Errores ortográficos
Resumo:
Ao longo dos tempos foi possível constatar que uma grande parte do tempo dos professores é gasta na componente de avaliação. Por esse facto, há já algumas décadas que a correcção automática de texto livre é alvo de investigação. Sendo a correcção de exercícios efectuada pelo computador permite que o professor dedique o seu tempo em tarefas que melhorem a aprendizagem dos alunos. Para além disso, cada vez mais as novas tecnologias permitem o uso de ferramentas com bastante utilidade no ensino, pois para além de facilitarem a exposição do conhecimento também permitem uma maior retenção da informação. Logo, associar ferramentas de gestão de sala de aula à correcção automática de respostas de texto livre é um desafio bastante interessante. O objectivo desta dissertação foi a realização de um estudo relativamente à área de avaliação assistida por computador em que este trabalho se insere. Inicialmente, foram analisados alguns correctores ortográficos para seleccionar aquele que seria integrado no módulo proposto. De seguida, foram estudadas as técnicas mais relevantes e as ferramentas que mais se enquadram no âmbito deste trabalho. Neste contexto, a ideia foi partir da existência de uma ferramenta de gestão de sala de aula e desenvolver um módulo para a correcção de exercícios. A aplicação UNI_NET-Classroom, que foi a ferramenta para a qual o módulo foi desenvolvido, já continha um componente de gestão de exercícios que apenas efectuava a correcção para as respostas de escolha múltipla. Com este trabalho pretendeu-se acrescentar mais uma funcionalidade a esse componente, cujo intuito é dar apoio ao professor através da correcção de exercícios e sugestão da cotação a atribuir. Por último, foram realizadas várias experiências sobre o módulo desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. A conclusão mais importante foi que as ferramentas de correcção automática são uma mais-valia para os professores e escolas.
Resumo:
Projeto de Intervenção apresentado à Escola Superior de Educação de Lisboa para obtenção do grau de Mestre em Didática da Língua Portuguesa no 1.º e 2.º Ciclos do Ensino Básico
Resumo:
Relatório de Estágio apresentado à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ensino do 1.º e do 2.º Ciclo do Ensino Básico
Resumo:
Comunicação apresentada nas Jornadas de Língua e Direito, organizadas pelo ISCAP e pela Universidade Católica Portuguesa, Outubro de 2013.
Resumo:
Trabalho de Projecto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Edição de Texto.
Resumo:
Trabalho de Projecto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ciências da Linguagem
Resumo:
El objetivo que persigue un proceso de auditoría de estados contables es la comunicación por parte del auditor de una conclusión en relación al grado de razonabilidad con que tales estados reflejan la situación patrimonial, económica y financiera del ente de acuerdo a los criterios plasmados en las normas contables de referencia a ser utilizadas. El hecho que un auditor emita una conclusión errónea como consecuencia de su labor puede implicar la asunción de responsabilidades profesionales, civiles y penales como consecuencia de reclamos de usuarios de los estados contables que pudieran haberse visto perjudicados como consecuencia de la emisión de la conclusión errónea. Las normas contables a nivel nacional e internacional admiten la existencia de errores u omisiones en la información contenida en los estados contables, en la medida que tales desvíos no provoquen en los usuarios interesados en tales estados una decisión distinta a la que tomarían en caso de no existir los errores u omisiones aludidos. De lo expuesto en el párrafo anterior surge la cabal importancia que la determinación del nivel de significación total (nivel de desvíos admitidos por los usuarios de los estados contables en la información por ellos contenida) adquiere en los procesos de auditoría, como así también la asignación de tal nivel entre los distintos componentes de los estados contables (asignación del error tolerable) a los efectos de que los auditores eviten asumir responsabilidades de índole profesional, civil y/o penal. Hasta el momento no se conoce la existencia de modelos matemáticos que respalden de modo objetivo y verificable el cálculo del nivel de significación total y la asignación del error tolerable entre los distintos elementos conformantes de los estados contables. Entendemos que el desarrollo e integración de un modelo de cuantificación del nivel de significación total y de asignación del error tolerable tiene las siguientes repercusiones: 1 – Representaría para el auditor un elemento que respalde el modo de cuantificación del nivel de significación y la asignación del error tolerable entre los componentes de los estados contables. 2 – Permitiría que los auditores reduzcan las posibilidades de asumir responsabilidades de carácter profesional, civil y/o penales como consecuencia de su labor. 3 – Representaría un principio de avance a los efectos de que los organismos emisores de normas de auditoría a nivel nacional e internacional recepten elementos a los efectos de fijar directrices en relación al cálculo del nivel de significación y de asignación del error tolerable. 4 - Eliminaría al cálculo del nivel de significación como una barrera que afecte la comparabilidad de los estados contables.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
Las tareas de investigación involucran tres subproyectos interdependientes: A. Caracterización de muestras extensas. B. Caracterización de muestras delgadas y multiminares. C. Caracterización de partículas y aplicación a la contaminación ambiental. Se prevé utilizar la técnica de Monte Carlo para predecir espectros de FRX con sistema dispersivo en energías. Este mismo método será utilizado para describir la distribución angular de los electrones retrodifundidos para incidencia normal y no normal, y también para mejorar la descripción de la función distribución de ionizaciones f(pz) utilizando secciones eficaces realistas. Paralelamente, se desarrollarán modelos de los parámetros fo, go y h que determinan la función distribución de ionizaciones f(pz). Del mismo modo, se estudiará la caracterización de muestras delgadas y estratificadas. Para ello se realizarán simulaciones Monte Carlo utilizando los resultados previstos en el párrafo anterior y se harán determinaciones experimentales con la microsonda electrónica de sistemas multilaminares simples y multicomponentes. Se extenderán las aplicaciones del programa MULTI desarrollado en nuestro grupo para cuantificación de muestras extensas, láminas delgadas y partículas. En este sentido se implementará un algoritmo para cuantificar muestras con picos no detectables, se evaluarán los errores en las concentraciones calculadas y se incluirá el reforzamiento por fluorescencia con las líneas K beta. Por otro lado, se implementará de un método de procesamiento de datos para el análisis de partículas en EPMA y su aplicación al estudio de la contaminación ambiental mediante el procesamiento de imágenes para la caracterización morfológica y química de partículas en suspensión, análisis de clusters. El objetivo final es la identificación y caracterización de fuentes de contaminación. Esta tarea será complementada con análisis global de la composición química en muestras de materia particulada mediante FRX, y el estudio de sus parámetros físicos mediante el método de simulación Monte Carlo. Se mejorará la estructura experimental de nuestro laboratorio poniendo en funcionamiento un microscopio electrónico Cambridge Stereoscan cedido por la Universidad de Barcelona conjuntamente con la capacidad analítica que ha sido adquirida para extender sus posibilidades de aplicación, y se instalará un equipo de FRX desarrollado en nuestro grupo con accesorios recientemente adquiridos. El desarrollo y solución de los problemas propuestos permitirá mejorar la formación integral de estudiantes en distintas etapas de su carrera de doctorado y recientemente doctorados, ya que presentan además de un aspecto básico, uno aplicado, pues tienden a la solución de situaciones concretas de interés biológico, ambiental y tecnológico.
Resumo:
Diversas disciplinas científicas tales como la Psicología, las neurociencias, la psicología evolutiva, la inteligencia artificial, la lingüística, etc., abordan el estudio de los fenómenos mentales desde diferentes ángulos y con presupuestos y metodologías particulares. Por otra parte, en el marco disciplinario de la filosofía de la mente, especialmente en los últimos años, se han encarado investigaciones en torno a distintos tópicos especiales (representación, causación mental, intencionalidad, procesamiento de información, fenómenos cualitativos, subjetividad, auto-conocimiento, etc.) que han sido discutidos en diferentes niveles de análisis: ontológico, epistemológico, metodológico, semántico. Esta situación trae como consecuencia el desarrollo de investigaciones paralelas cuyas vinculaciones sólo excepcionalmente son advertidas, e incluso en el caso de algunas disciplinas aplicadas, ni siquiera se consideran los resultados de las indagaciones teóricas, lo que las lleva a incurrir tanto en errores conceptuales como la interpretación. (...) En la anterior etapa de investigación hemos logrado realizar un relevamiento general, en algunas de las disciplinas mencionadas, de los distintos marcos conceptuales y explicativos empleados en teorías de la intencionalidad. En esta nueva etapa nos proponemos analizar y evaluar las principales dificultades y discusiones epistemológicas implicadas en el intento de construir una única teoría global acerca de lo mental, vinculando diferentes disciplinas. (...) En esta primera etapa prevemos abordar el problema planteado abocándonos al estudio de una temática especial, presente en los desarrollos teóricos de las distintas disciplinas e ineludible para la construcción de una teoría transdisciplinaria acerca de los fenómenos mentales: el problema de la conciencia. (...) Objetivos específicos: 1. Examinar las teorías alternativas de la conciencia (empíricas y filosóficas) discriminando en especial sus presupuestos epistemológicos. 2. Comparar los marcos teóricos globales que se desprenden de las teorías de la conciencia con las interpretaciones que de ella se postulan en los distintos contextos disciplinarios (psicología, lingüística, etc.). 3. Evaluar la viabilidad de una teoría unitaria de la conciencia, atendiendo a las condiciones de adecuación epistemológica de acuerdo con un enfoque interdisciplinario.
Resumo:
El proyecto está basado en la investigación y desarrollo de sistemas de comunicaciones digitales inalámbricos, dentro del campo de las telecomunicaciones, encarando como aspecto distintivo la prestación de servicios integrados es decir, la posibilidad de acceder a voz, video y datos a través de un solo medio. Este tipo de comunicaciones se denomina multimedio y es posible debido a adelantos tecnológicos en el área de integración de circuitos, la difusión en el uso de computadoras y el creciente avance de los servicios de las empresas prestadoras. Los sistemas inalámbricos de comunicaciones multimedio requieren frecuentemente la transmisión de señales codificadas, las cuales pueden representar audio, video, imágenes estáticas, datos, etc. (...) El desvanecimiento de Rayleigh y las multitrayectorias de la señal en un sistema inalámbrico de comunicaciones, causa la pérdida de componentes de esa señal. Técnicas tales como el uso de códigos de corrección de errores, requisición automática de repeticiones entrelazado y las múltiples formas de diversidad, pueden proveer protección contra los desvanecimientos de Rayleigh. Sin embargo, en muchos casos, en particular en la transmisión de imágenes o video, estas técnicas pueden no ser suficientemente eficaces, o bien pueden introducir un retardo excesivo que resulta altamente objetable. Durante el desarrollo del proyecto se investigarán y aplicarán estas técnicas de avanzada para llegar a una transmisión confiable de multimedios, en forma inalámbrica, perfeccionando métodos existentes o implementando nuevos. Objetivos Generales El objetivo a lograr en el presente proyecto será la evaluación exhaustiva de esquemas propuestos, utilizando como herramientas la simulación por computadora y el análisis teórico. Se buscará generalizar resultados previamente establecidos para el caso de canales Gaussianos en Teoría de la Información, al caso de canales con desvanecimiento de Rayleigh con las siguientes condiciones de contorno: 1) Retardo de transmisión limitado; 2) Uso de criterios perceptivos para juzgar la calidad de transmisión. (...)
Resumo:
En el presente proyecto se pretende explorar si los textos que se requieren a los alumnos responden a las características y exigencias de los textos de mayor circulación social que supuestamente serán requeridos por la sociedad una vez que los niños egresan de la etapa de escolaridad obligatoria. Un primer análisis de los textos escritos por los alumnos, registrados en sus cuadernos como "tareas de composición" permitió observar transformaciones sustanciales que los distancian notablemente de las características y estructuras esenciales definidas por la lingüística textual y la pragmática discursiva. El objetivo de este estudio es analizar la distancia que separa los textos escolares de los textos sociales desde una perspectiva de los estudios actuales de transposición didáctica. Se caracteriza a la transposición didáctica como un proceso complejo de transformaciones adaptativas mediante el cual el conocimiento elaborado en el plano científico se convierte en conocimiento escolarizado. En el proyecto se propone explorar las transformaciones que se producen en la enseñanza del lenguaje escrito, focalizando el análisis en dos planos: 1. El plano textual pretende: detectar la distancia que se produce en el contexto de producción y los textos de circulación social con las condiciones de producción efectivamente por los alumnos. Además, comparar las características configuracionales y discursivas que identifican a los textos sociales y escolares. 2. Plano ortográficos tal como son descriptos por la disciplina de referencia y como son vehiculizados en el aula. Interesa elaborar categorías de transposición didáctica al lenguaje escrito, planos de análisis para describir las transformaciones que se producen durante el proceso de pedagogización del saber. Al evidenciar las transformaciones que se infringe al lenguaje escrito como consecuencia de ciertas prácticas pedagógicas, se pretende contribuir a repensar las mismas con el propósito de neutralizar los efectos distorsionantes de la transposición didáctica.
Resumo:
La contabilidad a través de los estados financieros, concebidos como instrumentos que proporcionan un resumen de la situación patrimonial de las organizaciones y de sus evoluciones económicas y financieras, cumple un trascendente rol en la sociedad que consiste en suministrar información a ser utilizada en los procesos decisorios de los principales agentes que intervienen en la economía (inversores, acreedores, empleados, sindicados, mercados de valores, clientes, proveedores, estado, etc.). La importancia que fueron adquiriendo los estados financieros, como satisfactores de las demandas informativas de los interesados en su contenido, produjo la imperiosa necesidad de contar con una seguridad razonable de que la información incorporada en los mismos se encuentre libre de errores u omisiones significativos, que pudieran distorsionar las decisiones a ser tomadas por sus usuarios. Fue de este modo que la auditoría de estados financieros, dentro de los servicios de que agregan credibilidad a la información, se erigió en el proceso destinado a tal fin. En este contexto, la auditoría de estados financieros se convirtió en el proceso estructurado, llevado a cabo por un auditor independiente, con vistas a arribar a una conclusión respecto a si la información contenida por los estados financieros, refleja razonablemente o no la situación patrimonial y la evolución económica y financiera de una organización por el período que abarcan, conforme a las disposiciones consagradas en ordenamiento contable utilizado como referencia. El riesgo de auditoría, concebido como la medida que refleja la posibilidad de que el auditor arribe a una conclusión equivocada respecto de la forma en que los estados contables reflejan la situación patrimonial y la evolución económica y financiera por el período que comprenden, adquiere una relevancia inusitada dentro del proceso de auditoría de estados financieros. Los principales ordenamientos en materia de auditoría de estados financieros proponen una metodología de cálculo del riesgo de auditoría en donde el mismo se concibe como el producto de los siguientes componentes: a) riesgo inherente (posibilidad de que la información contenida por los estados financieros contenga errores u omisiones significativas en si misma), b) riesgo de falta de control (posibilidad de que el sistema de control interno no prevenga, detecte o corrija errores u omisiones propios de la información contenida por los estados financieros en si misma), y c) riesgo de falta de detección (posibilidad de que información con errores u omisiones no siendo prevenida, detectada o corregida por el sistema de control interno tampoco sea advertida como consecuencia de la aplicación de los procedimientos de auditoría). Existió un primer enfoque en relación a forma de determinación del riesgo de auditoría que se caracterizó por: a) una concepción reducida de los posibles factores determinantes de los diferentes tipos de riesgos, b) una visión transaccional y desintegrada de la organización y de la información, y c) una valoración de los riesgos apoyada fuertemente en el criterio profesional del auditor. La referida orientación en relación a los aspectos metodológicos de determinación del riesgo de auditoría, denominada “enfoque tradicional”, fue identificada por académicos y profesionales, como la principal causa del fracaso de la auditoría de estados financieros en reconocidos escándalos financieros (casos: Enron, Worldcom, Parmalat, etc.) que trajeron aparejadas un conjunto de consecuencias sociales de profundo impacto (cuantiosas pérdidas económicas, descrédito de la auditoría como proceso que agrega credibilidad a la información contenida en los estados financieros, sanciones de naturaleza penal, civil y profesional a auditores e integrantes de organismos encargados de controlar la ejecución de auditorias, etc.) A los efectos de superar las deficiencias del enfoque tradicional, relacionado con la metodología de determinación del riesgo de auditoría, se desarrolló un nuevo enfoque, conocido como auditoría basada en riesgos, el cual se caracteriza por: a) una concepción amplia de los posibles factores que inciden sobre los componentes del riesgo de auditoría, b) una visión estratégica, sistémica e integrada de la organización y de la información generada por ella y c) la pretensión de la utilización de herramientas objetivas en la valoración de riesgos. La auditoría basada en riesgos ataca el corazón mismo de la auditoría de estados financieros que es el modelo de riesgos de auditoría, haciendo foco en los riesgos de negocio de las organizaciones. El presente proyecto de investigación tiene la pretensión de colaborar como un eslabón más en la instauración del enfoque de auditoría basada en riesgos, aportando un modelo integrado de cuantificación de riesgos que identifique el grado de influencia que cada uno de los factores determinantes del riesgo de negocio tiene respecto de cada uno de los componentes que definen al riesgo de auditoría.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
El proyecto busca profundizar lo incorporado como método de análisis, a partir de lo realizado en el proyecto anterior, relativo a la Fragilidad por Hidrógeno en Metales Ferrosos. Sobre la base de lo actuado, se pretende aplicar el método científico de análisis a las fallas en casos que ocurren en la práctica y que tienen como origen errores en el diseño, construcción o mantenimiento de componentes o sistemas. Procesos industriales que aplican técnicas de fabricación o construcción de componentes, frecuentemente fallan por un uso erróneo de los mismos, ya sea por mala práctica o bien por desconocimiento de las variables que los gobiernan. Mediante la aplicación del método científico se busca llegar a las primeras causas de las fallas y a partir del entendimiento de las mismas generar prevención para futuros casos.