913 resultados para procesado en lenguaje natural (Informática)
Resumo:
En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.
Resumo:
La presente herramienta informática constituye un software que es capaz concebir una red semántica con los siguientes recursos: WordNet versión 1.6 y 2.0, WordNet Affects versión 1.0 y 1.1, WordNet Domain versión 2.0, SUMO, Semantic Classes y Senti WordNet versión 3.0, todos integrados y relacionados en una única base de conocimiento. Utilizando estos recursos, ISR-WN cuenta con funcionalidades añadidas que permiten la exploración de dicha red de un modo simple aplicando funciones tanto como de recorrido como de búsquedas textuales. Mediante la interrogación de dicha red semántica es posible obtener información para enriquecer textos, como puede ser obtener las definiciones de aquellas palabras que son de uso común en determinados Dominios en general, dominios emocionales, y otras conceptualizaciones, además de conocer de un determinado sentido de una palabra su valoración proporcionada por el recurso SentiWordnet de positividad, negatividad y objetividad sentimental. Toda esta información puede ser utilizada en tareas de procesamiento del lenguaje natural como: • Desambiguación del Sentido de las Palabras, • Detección de la Polaridad Sentimental • Análisis Semántico y Léxico para la obtención de conceptos relevantes en una frase según el tipo de recurso implicado. Esta herramienta tiene como base el idioma inglés y se encuentra disponible como una aplicación de Windows la cual dispone de un archivo de instalación el cual despliega en el ordenador de residencia las librerías necesarias para su correcta utilización. Además de la interfaz de usuario ofrecida, esta herramienta puede ser utilizada como API (Application Programming Interface) por otras aplicaciones.
Resumo:
En este proyecto se investigan 3 subáreas de Inteligencia Artificial y sus aplicaciones en contextos educativos. Las 3 áreas son 1) agentes conversacionales automatizados que actúan como instructores virtuales o sistemas de tutoring automatizado, 2) asistentes virtuales que llevan a cabo una tarea dada bajo la instrucción de un aprendiz avanzado, y 3) plataformas de programación de chatbots como una herramienta educativa para enseñar conceptos básicos de ciencias de la computación. La hipótesis de este proyecto es que tanto los tutores como los asistentes conversacionales automatizados deben incluir una representación contextual rica que identifique lo entendido por el aprendiz hasta el momento y ser capaces de realizar inferencias sobre ella para poder guiar mejor su aprendizaje. Los objetivos de este proyecto incluyen el desarrollo de algoritmos de inferencia contextuales apropiados para instructores y asistentes virtuales, el desarrollo de algoritmos para la programación simplificada de chatbots, la evaluación de estos algoritmos en pruebas piloto en escuelas y la realización de un curso online abierto masivo para estudiantes de secundario del programa Conectar Igualdad que quieran aprender sobre Inteligencia Artificial y Ciencias de la Computación. El método a utilizar será la realización de recolección de corpus (interacciones humano-humano de las interacciones tutor-aprendiz), la aplicación de técnicas de procesamiento de lenguaje natural como la generación por selección y la interpretación por clustering y maximum entropy models usando características sintácticas, semánticas y pragmáticas. Se desarrollarán los algoritmos siguiendo una metodología estándar de Ingeniería de Software y se evaluarán en experiencias piloto en escuelas secundarias así como en un curso online abierto y masivo. Además se dictará un curso de capacitación docente para la incorporación de las tecnologías producidas a sus cursos. Como resultado se espera la contribución al área de Inteligencia Artificial con aplicaciones en Educación de algoritmos evaluados empíricamente en entornos educativos reales del nivel medio. Además, se espera contribuir a las metodologías de enseñanza de Ciencias de la Computación en el nivel medio. Este proyecto es relevante a la realidad nacional y mundial de falta de recursos humanos formados en las Ciencias de la Computación y al crecimiento mundial que el área de Inteligencia Artificial en general y de Sistemas de diálogo (o interfaces conversacionales) en particular ha tenido en los últimos años con el crecimiento exponencial de la tecnología en la vida diaria.
Resumo:
En el presente trabajo de grado, se indago, sobre las posibles dificultades que pueden presentar los estudiantes de grado sexto del Colegio Calimio Desepaz perteneciente a la Fundaci?n Santa Isabel de Hungr?a, de la ciudad de Cali, al introducir la noci?n de ?rea por medio de la superposici?n de figuras poligonales. En este sentido se quiso profundizar sobre la pertinencia que tiene el lenguaje natural y las transformaciones del lenguaje, que se presentan en el proceso de aprendizaje de la noci?n de ?rea. Tambi?n se dese? ilustrar algunos de los aspectos de tipo hist?rico y epistemol?gico que sustentan la superposici?n de figuras poligonales, en relaci?n con el aprendizaje de esta noci?n, para as? lograr una mejora de esta en la ense?anza en el grado sexto. En este sentido se redise?aron unas actividades que permitieron estudiar las dificultades que se presentan al momento de calcular el ?rea a trav?s de la superposici?n de figuras geom?tricas, porque a medida que se avanzaba en la aplicaci?n de estas los resultados demostraron que los estudiantes no conservan con claridad la noci?n y adem?s presentaron dificultad al momento de entender los enunciados planteados en cada actividad. Por otro lado, los estudiantes no comprendieron la manera de calcular el ?rea haciendo uso de la superposici?n de figuras geom?tricas pues no entend?an qu? es una unidad patr?n y cu?l era la figura geom?trica. Adem?s al analizar los resultados de las actividades desarrolladas se encontr? que las dificultades en cada una de las situaciones variaron de acuerdo al dise?o de cada una, porque la unidad patr?n en las dos primeras situaciones presenta diferencias en su interior y forma, y la situaci?n 3 en su mayor?a los grupos no respondieron por cuesti?n de tiempo.
Resumo:
El presente trabajo de tesis se realizó en la granja experimental porcina MAGFOR-Misión China de la república de Taiwán, ubicada en Cofradía. El estudio consistió en la evaluación de los parámetros reproductivos en grupos de cerdas obtenidos por inseminación artificial y grupos obtenidos a través de la monta natural, también se aborda el tema de la consanguinidad y sus consecuencias como un factor negativo en la fijación de caracteres indeseables, esto sucede en las poblaciones en las que existe una alta homocigosis debido al origen común del material genético (padres emparentados). Las variables evaluadas en el presente trabajo fueron: tamaño de la camada al nacimiento, peso promedio de los lechones al nacimiento, peso promedio de los lechones al destete e intervalo parto parto. para el análisis estadístico se elaboraron tablas de contingencias por cada una de las variables con base en los promedios. Para la variable tamaño de la camada al nacimiento se obtuvo para el tratamiento inseminación artificial un promedio de 9.16 lechones y para la monta natural un promedio de 9.89 lechones al contrastar las medias de los dos tratamientos se obtuvo un valor de t de 0.88 que comparado con el valor tabulado al 5% resulto no significativo al observar el comportamiento de las diferentes razas ,la yorkshire obtuvo los mayores promedios en inseminación el caso especifico de esta habían muy pocos ejemplares 6 . Se trabajo en condiciones normales de producción lo cual pudo influir en estos resultados debido al tamaiio de la muestra en esta raza. Los resultados para la variable peso promedio de los lechones al nacimiento, arrojaron un promedio de 1.76 Kg. para las camadas obtenidas por inseminación artificial y 1.67kg para las obtenidas por el método de monta natural en las observaciones de los promedios por razas, se obtuvo el mayor peso a favor de la raza Landrace con 1.99 Kg. seguido de la raza duroc con 1.85 Kg. en el tratamiento de inseminación artificial, y para la monta natural el menor peso lo obtuvo la raza duroc con 1.44 Kg. y elmayor peso fue también la raza Landrace. la raza Yorkshire mostró un comportamiento similar tanto en inseminacion artificial, como en monta natural. Para la variable peso promedio de los lechones al destete, se obtuvo un peso promedio de 7.39 Kg. para los lechones obtenidos por el método de inseminacion artificial y un peso promedio de 6.71 Kg. en el caso de lechones obtenidos por monta natural al evaluar las razas, la raza Landrace obtuvo el mayor peso al destete con 8.01 Kg. como era de esperar al obtener los mayores promedios en peso al nacimiento esto fue para las camadas obtenidas por inseminacion artificial. en el caso. de los lechones obtenidos mediante la monta natural el mayor peso correspondió a la raza Hampshire pudiendo haber influido el numero de lechones, ya que esta fue la que presento el menor numero la raza Yorkshire tuvo en este caso un comportamiento similar en los dos tratamientos. Para la variable intervalo parto-parto, en el caso de las cerdas servidas por el método de inseminacion artificial presentaron un IPP de 5.52 meses o sea 167 días y las cerdas servidas por monta natural obtuvieron un IPP de5.01 meses o 152 días. En la prueba de hipótesis tanto como el contraste de varianza, los resultados fueron significativos y una diferencia de 15 días vacíos en una hembra eleva los costos de producción de una manera considerable por esta razón un IPP como el de la inseminación artificial solo se justifica en la granja experimental porcina en un numero especifico de cerdas elite y como apoyo al mejoramiento genético del hato porcino de esta así como del hato nacional.
Resumo:
El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.
Resumo:
El presente trabajo forma parte de la primera etapa del Proyecto de Investigación “Análisis del Lenguaje Matemático y su influencia en los procesos de Validación en estudiantes universitarios de Ingeniería” realizado en forma conjunta por la Facultad de Agronomía UNCPBA (Azul-Argentina), y la Facultad de Química e Ingeniería UCA (Rosario-Argentina). Aquí se presentan y analizan los resultados de una encuesta piloto en pos de caracterizar las dificultades y obstáculos para la comprensión y traducción entre los registros de expresiones verbales o escritas (lenguaje proposicional) y su representación en lenguaje algebraico (uso de símbolos matemáticos) en los estudiantes que ingresan a la Universidad.
Resumo:
El cuaderno se dirige a alumnos de 7 años e incluye textos explicativos y actividades a desarrollar en el aula
Resumo:
Formar a los psicólogos en programación. Servir de introducción en entornos informáticos no clásicos, como el desarrollo de programas con interacción inteligente. Estudio del desarrollo del prototipo de sistema informático SPICP (Sistema de Programación Interactiva en el Campo de la Psicología-, orientado a la formación de los psicólogos. Aplicación del mismo a estudiantes de Psicología de la Universidad de Oviedo. Se basa en el sistema de utilización 'vertical' del software educativo, donde un mismo paquete de programas es utilizado en cursos de diferentes niveles de dificultad. Dicho sistema consta de tres fases: un primer nivel donde los alumnos manejan programas ya creados con objeto de observar las posibilidades que ofrecen en el campo estadístico; un segundo nivel donde se estudian y modifican los programas y subrutinas existentes; y un tercer nivel donde ya desarrollan programas propios. Bibliografía. Ordenadores y programas informáticos en lenguaje Basic y/o Fortran. Estudio de las copias literales de las sesiones mantenidas por cada alumno, generadas por un mecanismo creado ad hoc. En la primera parte de la tesis se describen las aplicaciones del ordenador al campo de la Educación y la Psicología. Con respecto a la Educación, se describen las características de los lenguajes utilizados y algunos sistemas expertos como por ejemplo la base de datos Geobase. Con respecto a la Psicología, se describen: las aplicaciones prácticas del ordenador para hacer análisis estadísticos, controlar, recoger, almacenar y consultar información y hacer diagnósticos psicológicos; sus aplicaciones teóricas y, por último, algunos sistemas y programas que sirven como introductores al uso de la informática dentro del campo de la Psicología de forma general -Eureka, Items, Psychnet, SPSSX-l, etc.-. En la segunda parte se explica cómo crear y utilizar sistemas interactivos en programas estadísticos, en modelos simulados por ordenador y en el uso del paquete SPSS. En los tres casos se describen tanto los programas centrales como los secundarios. Por último se describe el funcionamiento y características de un entorno de programación destinado a crear sistemas expertos, y se añade un listado parcial de programas que constituyen algunos de dichos sistemas: 1st-Class-Advisor, Qnucleo, Qvarlist, Qttest, Se1, Se2. Se comprueba que el uso del sistema interactivo consigue que los alumnos manejen los programas adecuadamente en un lapso de tiempo menor que el que necesitan para hacerse con el manejo de un paquete estadístico tradicional. Durante este estudio se obtuvo además, información sobre la demanda de formación informática por parte de los alumnos de Psicología, comprobándose la incapacidad del Departamento para dar un acceso mayoritario a dicha formación.
Resumo:
Pretende formar en la lógica al tiempo que se aprende la sintaxis del Prolog, de ahí que se consideren las estructuras sintácticas desde el punto de vista de la semántica como medios de representación-deducción de conocimientos. La razón es que se trata de un sistema de autoaprendizaje sin un maestro sino por ejemplos de descripciones características y descripciones discriminantes. Objetivos: iniciar una investigación, con métodos propios, de un área de aprendizaje 'La Alfabetización Informática' intentando que el sistema fuera motivador, de autoaprendizaje y además ayude a consolidar las operaciones lógico-formales y la capacidad de abstracción. El objetivo de cuestionario es ayudar a interpretar y predecir el comportamiento del sujeto en el programa y detectar elementos de dificultad del mismo. Elaboración de un programa de autoaprendizaje del Prolog orientado a niños entre 12 y 14 años. El método general es el inductivo: son los ejemplos los que proporcionan la escalera de ascenso a las clases de conceptos. Comenta las diferentes aproximaciones hechas sobre enseñanza de programación lógica en la escuela como son las de Gran Bretaña en el Imperial College, en Italia y en Portugal. Estudia los condicionantes para que fuera motivador y de autoaprendizaje. Las fases del trabajo son: traducción del lenguaje natural a Prolog, construcción de hechos sencillos como sentencias descriptivas, consulta de esa base de hechos e introducción de reglas. El programa está estructurado por niveles, es preciso superar uno para pasar al siguiente. Cada nivel contiene una evaluación final. Cuestionario 'ad hoc' dividido en cuatro bloques que recogen información acerca de las características generales del sujeto, la experiencia de interacción con la máquina, historia de su presentación y el tipo de preguntas que se realizan y los conceptos elementales del lenguaje de programación. Se utiliza un sistema de aprendizaje de adquisición de conocimientos por medio de ejemplos. Priman los aspectos sintácticos sobre los semánticos pero los primeros están orientados a los segundos. La historia motiva y gusta al niño, lo cual ya es un logro importante ya que de lo que se trata es de iniciar a los niños en la informática de un modo distinto. Uno de los conceptos mejor asimilados es el de la sintaxis en la construcción de hechos, así como en la importancia del orden de los argumentos. Las perspectivas de desarrollo de este trabajo, según el autor, son muchas, entre ellas destaca: crear un metasistema de control del alumno para que exista una especie de árbol de los conceptos a desarrollar y de las preguntas que abordan esos conceptos y seguir perfeccionando la programación lógica, Prolog, para lograr un verdadero sistema experto de aprendizaje para niños.
Resumo:
OrbisGIS dispone de un lenguaje que permite la manipulación de datos de forma independiente al formato. Éste se ajusta al estándar SQL92 (Lenguaje de Consulta Estructurado) y se extiende espacialmente según el OGC simple features SQL specification, lo que permite un alto nivel de compatibilidad con sistemas de bases de datos tradicionales como PostgreSQL/PostGIS. Habitualmente el SQL es procesado en servidores, sin embargo este artículo presentará cómo puede aplicarse en el cliente, principalmente para la definición y utilización de geoprocesos. La aplicación del SQL más inmediata es la manipulación de las fuentes de datos especificando una serie de instrucciones o script. Aparte, la implementación de SQL de OrbisGIS permite la parametrización de estos scripts de manera que pueden ser reutilizados con diferentes fuentes de datos y sin necesidad de conocer el proceso internamente. La reutilización puede darse tanto como ejecución del script como inclusión en un constructor de modelos que permite encadenar múltiples scripts dando lugar a un nuevo proceso más complejo. Por otra parte, el uso de disparadores permite la definición de reglas de validación mediante instrucciones SQL. Es posible definir reglas topológicas (entre otras) que definan relaciones entre dos o más fuentes de datos y que controlarán el proceso de edición tanto espacial como alfanumérico. Para finalizar, la especificación de vistas (en el sentido de los SGBD) permite reducir la redundancia en los datos y realizar algunas aplicaciones interesantes como la visualización de la evolución de los distintos imperios a lo largo de la historia
Resumo:
Resumen tomado del autor
Resumo:
Demostrar la efectividad del lenguaje figurativo, no sólo en el recuerdo, en la comprensión, sino también en sus propiedades terapéuticas a través de una información más motivante de sensaciones emotivas. Esto es, comprobar la efectividad del lenguaje respecto al nivel de inadaptación personal, como en relación al nivel de comprensión y recuerdo de los contenidos impartidos. Cuatro grupos: grupo experimental de tratamiento en 'lenguaje directo'; grupo experimental de tratamiento en 'lenguaje figurado'; grupo experimental de tratamiento en 'lenguaje directo-figurativo' y grupo control. La muestra estuvo compuesta por 61 sujetos, 29 varones y 32 hembras de edades entre los 11 y 14 años. Cada grupo formado por 'n' sujetos desiguales. Diseño de grupo control pretest-posttest con medidas repetidas antes y después sobre los diferentes grupos. Variable independiente: programa de tratamiento con cuatro valores: lenguaje directo, lenguaje figurativo (en el que se usan símiles, alegorías, metáforas, etc); lenguaje directo-figurativo y tratamiento placebo. La variable dependiente, con dos valores: nivel de mejora de la adaptación, especialmente en la adaptación personal, y nivel de recuerdo en relación a la información recibida a través de los programas. Los tratamientos fueron desarrollados en el aula durante las horas de clase. Se realizaron 5 sesiones, habiéndose pasado al comienzo un test de inteligencia y de adaptación. TAMAI, de Pedro Hernández. Cuestionario de autoevaluación de cambio, CAC de Hernández y Jiménez, 1982. Cuestionario instruccional realizado ad hoc. Test de inteligencia de Lorge y Thorndike, 1954. Prueba de Duncan, diferencia de medias (prueba 't' de Student) y correlaciones. La principal conclusión es la efectividad del programa en lenguaje escrito, PIELE, para la mejora de la adaptación personal y su funcionalidad y facilidad de aplicación dentro de la situación escolar. También el valor de generalización del tratamiento y la superioridad en comprensión y recuerdo del lenguaje figurativo.
Resumo:
Ver qu?? preposiciones son usadas por los ni??os y ni??as (entre 4 y 6 a??os) con retraso en el lenguaje y qu?? relaciones de significado son expresadas. Observando el grado de maduraci??n cognitiva en el desarrollo del lenguaje como el nivel de desarrollo ling????stico de los sujetos. Formada por 18 sujetos (10 ni??os y 8 ni??as) de los que 7 ten??an cuatro a??os, 7 cinco a??os y 4 seis a??os. 9 de los sujetos eran de zona urbana y otros 9 de zona rural. Todos los sujetos ten??an cociente intelectual normal excepto uno que lo ten??a bajo y otro alto. Se puede dividir en seis partes. 1. Se transcribieron las muestras de habla obtenidas en las distintas tareas y se registraron tanto las emisiones ling????sticas como los elementos contextuales que ayudaban a interpretar las producciones (gestos, movimientos, interrupciones...). 2. Se diferenciaron las producciones donde aparec??an las preposiciones, del n??mero total de oraciones emitidas y se distinguieron aquellas emisiones en las que faltaba la preposici??n como elemento gramatical y de significado. 3. Se diferenciaron las LMU de los sujetos por edades para establecer si exist??a una relaci??n entre ??stas y el uso de las preposiciones. 4. Por tareas (l??mina de gatitos, interacci??n 1, 2 y cuento) se recogi?? la frecuencia de uso de cada preposici??n. 5. Se agruparon las preposiciones en funci??n de las frecuencias obtenidas en tres grupos: a) Mayor uso. b) Menor uso. c) Uso ocasional. 6. A partir de las oraciones se establecieron tres grupos de relaciones de significado, nocionales, espaciales y temporales y por ??ltimo tres tipos de errores (errores de omisi??n, sustituci??n y redundancia en el uso de las preposiciones). Aparte se establecieron relaciones entre las variables edad, zona, sexo y CI con las variables computadas (frecuencia de oraciones emitidas, total del uso de cada preposici??n, frecuencia de oraciones con preposiciones...). Test, observaciones, pruebas. Programa SPSS. Los sujetos de 5 a??os produjeron m??s lenguaje que los sujetos de 4 y 6 a??os. Los ni??os con retraso del lenguaje presentan limitaciones en el lenguaje espont??neo y pragm??ticamente no son buenos interlocutores en las conversaciones, de ah?? que quiz??s una tarea con referente pueda 'ayudarlos' a elicitar m??s lenguaje. Las oraciones con preposiciones tienen poca presencia, todos producen menos del 50 por ciento excepto uno con 69,5 por ciento. La longitud media de enunciados no mantiene relaci??n con la edad. Los ni??os de la zona urbana hacen un mayor uso de las preposiciones que los de la zona rural. Las preposiciones utilizadas por la muestra son: a, ante, con, de, hasta, en, para, por, sin, sobre y las no utilizadas: bajo, contra, desde, entre, hacia, tras, seg??n. Los ni??os de 6 a??os producen m??s errores que los de 5 y 4 a??os aunque estad??sticamente no hay nada significativo. El error m??s frecuente es el de a??adir una preposici??n cuando no corresponde con una proporci??n de m??s del 50 por ciento frente a los de sustituci??n y omisi??n. Los ni??os que m??s hablan (zona urbana) tienen m??s errores. Esto pone en evidencia que, con el paso de los a??os, los que tienen retraso de lenguaje presentan m??s dificultades para el aprendizaje y dominio de las estructuras de una lengua. Los sujetos mostraron un desarrollo ling????stico diverso atendiendo a la cantidad de oraciones producidas. La proporci??n de oraciones con preposiciones en relaci??n al conjunto de las producciones emitidas es muy baja. Esto evidencia las dificultades de estos sujetos para utilizar palabras con diferentes significados y realizar combinaciones morfosint??cticas variadas. El 'cuento' como tarea de evaluaci??n es efectiva a partir de 5 a??os. Las preposiciones pueden explicar el nivel de desarrollo cognoscitivo, adem??s de permitir identificar a los sujetos con retraso en lenguaje. Aunque no se considera el retraso intelectual como causa del retraso en el lenguaje, podemos estar seguros que las alteraciones en la elaboraci??n de lenguaje influyen negativamente en el desarrollo cognitivo de los sujetos.
Resumo:
Este texto representa el esfuerzo combinado de dos lógicos, dos filósofos y un lingüista. Esta empresa fue inspirada por la convicción de los autores de que la lógica y el lenguaje son inseparables, en particular en lo que respecta al análisis del significado. Una región interdisciplinaria emerge entre los límites de la filosofía, la lógica y la lingüística. Lógica, lenguaje y significado: lógica intensional y gramática lógica es una introducción a este campo, el cual aplica los sistemas lógico-formales al estudio del significado del lenguaje natural. El libro comienza con una introducción de los distintos principios de la semántica intensional y luego presenta varias lógicas intensionales, tales como la lógica proposicional modal, la lógica de predicados modal y la lógica temporal. También introduce la teoría de tipos, la lambda-abstracción y la sintaxis categorial.