1000 resultados para adquisició automàtica
Resumo:
OBJETIVO: Avaliar os efeitos da estimulação atrial otimizada (EAO) (estimulação duplo-sítio atrial, freqüência acima da intrínseca e algoritmo funcional específico) e uso de atenolol, na prevenção da fibrilação atrial (FA) recorrente. Desfecho primário: quantificar a taxa de episódios de FA. Desfechos secundários: qualidade de vida, avaliação de sintomas específicos cardiovasculares, taxa de internações hospitalares, taxa de cardioversões elétricas e farmacológicas e eventos cardíacos adversos. MÉTODOS: Vinte e sete pacientes com FA paroxística recorrente e doença do nó sinusal foram submetidos ao implante de marcapasso duplo-sítio atrial e ventricular e iniciaram com atenolol 100 mg/dia, a seguir foram randomizados em dois grupos, grupo I (3 meses iniciais com EAO e algoritmo especifico ligado e mais 3 com o mesmo desligado) e grupo II (seqüência inversa do grupo I). O modo de estimulação foi DDDR e após 3 meses, foram submetidos à avaliação clínica e eletrônica do sistema de estimulação - mudança automática de modo (AMS), Holter de 24 horas, ecocardiograma e questionário SF-36. Em seguida, foram cruzados e após 6 meses, nova avaliação. RESULTADOS: Pacientes com EAO, quando comparados ao grupo com algoritmo desligado, apresentaram menores taxas de: FA/semana (p<0,001), ativações do AMS (p<0,01), hospitalizações (p<0,001), cardioversões (p<0,001), além de melhores índices dos componentes físico e mental da qualidade de vida. CONCLUSÃO: A terapêutica híbrida, EAO associada ao uso de atenolol, reduziu a taxa de recorrência de FA e proporcionou melhora clínico funcional de pacientes com bradiarritmias sintomáticas.
Resumo:
El trabajo apunta a determinar el origen y naturaleza de las estrellas de C deficientes en H y por lo tanto, su relación con las restantes estrellas de nuestra galaxia. Apunta a determinar la edad y el estado evolutivo de estas estrellas. En lo que se refiere a las atmósferas, se trata de desarrollar una rutina que calcule en forma automática un modelo, tomando debidamente en cuenta las dificultades del problema (apartamiento de LTE, transporte convectivo, etc.), de modo de poderlo aplicar al estudio e interpretación de los espectros de las estrellas HdC. Objetivos Contribuye a clarificar la naturaleza de las estrellas HdC: 1. Una correcta identificación de las estrellas de esta clase por las características que presentan sus espectros. 2. Determinar la abundancia de los distintos elementos en sus atmósferas. 3. Determinar su luminosidad intrínseca. 4. Poder decidir cuáles son las características cinemáticas del grupo. Dentro del tema de las atmósferas estelares, es de interés contar con una rutina que sobre la base de ciertos datos básicos (temperatura efectiva, composición química y gravedad superficial) calcule un modelo con un mínimo de intervención externa. Con este elemento disponible, hay temas interesantes que se están investigando dentro del grupo, como formación de líneas del He en estrellas B con atmósferas extendidas (en presencia de un viento estelar y de una cromósfera) y la distinta estructura que se debe esperar de una atmósfera de una estrella HdC, a causa de ser el C el siguiente elemento en importancia después del He.
Resumo:
El proyecto está basado en la investigación y desarrollo de sistemas de comunicaciones digitales inalámbricos, dentro del campo de las telecomunicaciones, encarando como aspecto distintivo la prestación de servicios integrados es decir, la posibilidad de acceder a voz, video y datos a través de un solo medio. Este tipo de comunicaciones se denomina multimedio y es posible debido a adelantos tecnológicos en el área de integración de circuitos, la difusión en el uso de computadoras y el creciente avance de los servicios de las empresas prestadoras. Los sistemas inalámbricos de comunicaciones multimedio requieren frecuentemente la transmisión de señales codificadas, las cuales pueden representar audio, video, imágenes estáticas, datos, etc. (...) El desvanecimiento de Rayleigh y las multitrayectorias de la señal en un sistema inalámbrico de comunicaciones, causa la pérdida de componentes de esa señal. Técnicas tales como el uso de códigos de corrección de errores, requisición automática de repeticiones entrelazado y las múltiples formas de diversidad, pueden proveer protección contra los desvanecimientos de Rayleigh. Sin embargo, en muchos casos, en particular en la transmisión de imágenes o video, estas técnicas pueden no ser suficientemente eficaces, o bien pueden introducir un retardo excesivo que resulta altamente objetable. Durante el desarrollo del proyecto se investigarán y aplicarán estas técnicas de avanzada para llegar a una transmisión confiable de multimedios, en forma inalámbrica, perfeccionando métodos existentes o implementando nuevos. Objetivos Generales El objetivo a lograr en el presente proyecto será la evaluación exhaustiva de esquemas propuestos, utilizando como herramientas la simulación por computadora y el análisis teórico. Se buscará generalizar resultados previamente establecidos para el caso de canales Gaussianos en Teoría de la Información, al caso de canales con desvanecimiento de Rayleigh con las siguientes condiciones de contorno: 1) Retardo de transmisión limitado; 2) Uso de criterios perceptivos para juzgar la calidad de transmisión. (...)
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
El contacto lingüístico entre diferentes comunidades en la Argentina produce una situación de diglosia que desplaza a las lenguas dominadas a favor de la dominante, en este caso, el castellano. Esta situación ha llevado a la extinción de muchas lenguas, y otras varias se encuentran en proceso de desaparición [http://www.ethnologue.com/show_country.asp?name=AR]. Con la muerte de estas lenguas no sólo se pierde un vasto bagaje cultural, sino que las comunidades indígenas se ven privadas de un elemento esencial para reafirmar su identidad y adaptarse a su medio socio-cultural. El objetivo último de este proyecto es contribuir a detener y, en lo posible, revertir estos procesos de extinción de las lenguas. Para ello, nos proponemos formalizar algunas lenguas indígenas de la Argentina para su tratamiento automático en aplicaciones computacionales que faciliten la producción lingüística, como por ejemplo la traducción automática de y hacia el castellano, ayudas a la redacción o facilitación translingüística. Este tipo de aplicaciones, además de contribuir a la preservación y multiplicación de usos de las lenguas aborígenes, facilitará que las comunidades se apropien de los procesos de inclusión digital, cuando éstos se implementen en su lengua materna. Por lo ambicioso de sus objetivos, este es un proyecto a largo plazo y con este subsidio que estamos solicitando abordaríamos el desarrollo de su fase inicial. Trabajaremos inicialmente con dos lenguas indígenas del territorio argentino que han sido bien descriptas a nivel lingüístico: el mocoví y el quechua, con la intención de extenderlo al mapundungun. A partir de las descripciones lingüísticas, propondremos una formalización computacional para cada una de estas lenguas, tratando de crear un núcleo común que facilite la adaptación de las aplicaciones computacionales a las diferentes lenguas. En una fase posterior del proyecto, la metodología y núcleo común consolidados para estas lenguas y dominios facilitarán el traslado de las aplicaciones a otras lenguas indígenas y a otros dominios semánticos. En esta fase inicial trabajaremos con aplicaciones de dominios semánticos restringidos, ya que se requiere mucho tiempo y esfuerzo para lograr un buen funcionamiento en aplicaciones de dominio general. Dos dominios en que consideramos sería beneficioso trabajar son la salud (concentrándonos por ejemplo en la información escrita sobre la prevención e higiene) y la agricultura (concentrándonos en información escrita relacionarse con el riego, la rotación de cultivos, etc). Sin embargo, planeamos hacer la elección final de dominios conjuntamente con organizaciones activas en la problemática abordada. Se trabajará a partir de datos recolectados por los propios investigadores implicados, así como datos producidos por otros proyectos, como por ejemplo los del DILA [http://www.caicyt.gov.ar/DILA], o los del proyecto Avenue [http://www.cs.cmu.edu/~avenue/].
Resumo:
La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.
Resumo:
FUNDAMENTO: O conhecimento teórico e a habilidade de realizar ressuscitação cardiopulmonar (RCP) de qualidade são essenciais para a sobrevida do paciente vítima de morte súbita. OBJETIVO: Determinar se o ensino apenas teórico é capaz de promover o ensino da RCP de boa qualidade e conhecimento em profissionais da área da saúde comparado com curso teórico-prático de suporte básico de vida. MÉTODOS: Vinte enfermeiras voluntárias participaram do treinamento teórico de RCP e desfibrilação externa automática (DEA) utilizando aula teórica e vídeo usado nos cursos de Suporte Básico de Vida da American Heart Association (BLS-AHA; grupo A). Foram comparadas com 26 alunos profissionais da saúde que participaram de um curso regular teórico-prático de BLS-AHA (grupo B). Após os cursos, os participantes foram submetidos à avaliação teórica e prática como recomendado nos cursos do BLS-AHA. As avaliações práticas foram gravadas e posteriormente pontuadas por três instrutores experientes. A avaliação teórica foi um teste de múltipla escolha usada nos cursos regulares do BLS-AHA. RESULTADOS: Não houve diferença na avaliação teórica (p = ns), entretanto a avaliação prática foi consistentemente pior no grupo A, evidenciado pelos três examinadores (p < 0,05). CONCLUSÃO: A Utilização de vídeos de RCP e aulas teóricas não melhoraram a capacidade psicomotora em realizar RCP de boa qualidade, entretanto pode melhorar a capacidade cognitiva (conhecimento). Áreas críticas de atuação são o ABCD primário e o correto uso do DEA.
Resumo:
FUNDAMENTO: Doenças do sistema circulatório são a causa mais comum de óbitos no Brasil. Devido ao fato de a população geral ser normalmente a primeira a identificar problemas relacionados ao sistema circulatório, é importante que ela seja treinada. No entanto, o treinamento é um desafio por causa do número de pessoas a serem treinadas e da manutenção do treinamento. OBJETIVOS: Avaliar a entrega do programa de treinamento de ressuscitação cardiopulmonar (RCP) ministrada por estudantes de medicina e avaliar o conhecimento prévio de RCP, além de retenção imediata e tardia de treinamento em RCP entre alunos do fundamental. MÉTODOS: Foram selecionadas duas escolas públicas e duas escolas privadas. O treinamento de RCP consistiu em uma vídeo-aula seguida de prática com bonecos, sob a supervisão de estudantes de medicina. Questionários de múltipla escolha foram fornecidos previamente, logo em seguida e 6 meses após o treinamento de RCP. As perguntas estavam relacionadas ao conhecimento geral, à sequência de procedimentos e ao método de administração de cada componente (ventilação, compressão torácica, e desfibrilação automática externa). Os instrutores realizaram uma discussão em grupo após as sessões para identificar os possíveis problemas encontrados. RESULTADOS: No total, 147 alunos concluíram o monitoramento de 6 meses. Os alunos de escola pública tinham menos conhecimento prévio, mas a diferença desapareceu logo após o treinamento. Após o período de 6 meses de monitoramento, esses alunos de escola pública demonstraram menor retenção. O principal problema encontrado foi ensinar a ressuscitação boca-a-boca. CONCLUSÕES: O método usado por estudantes de medicina para ensinar alunos do fundamental foi baseado na técnica do "ver e praticar". Este método foi eficaz na retenção imediata e tardia do conhecimento adquirido. A maior retenção de conhecimento entre os alunos de escola privada pode refletir fatores culturais.
Resumo:
Amostras de tecidos tratadas e não tratadas com acabamento de "mínimos cuidados" (DURABLE PRESS e SOIL-RELEASE) foram analisadas e comparadas quanto à mudanças na estabilidade dimensional e resistência à tração após lavagem e secagem automática. Tanto nos tecidos acabados como nos não acabados não foi detectado um grau de alteração estatisticamente significativo na estabilidade dimensional. As amostras não acabadas apresentaram maior resistência à tração que as acabadas, tanto no sentido do fio urdume como no sentido do trama.
Resumo:
Totes les universitats públiques catalanes, entre d'altres institucions, fan servir el programari VTLS per a la gestió de les seves biblioteques. Per a aquesta funció, cada universitat disposa d'un sistema propi en què esta instal·lada localment la base de dades del seu catàleg. El CBUC posseeix el catàleg col·lectiu, resultat de la fusió de tots els fons. En base a aquest últim es realitza la catalogació per còpia i la consulta global de tots els fons simultàniament. Aquest sistema de col·laboració ha estat pioner des de fa molts anys a Espanya, seguint les principals tendències internacionals. Però, en aquests moments, raons tecnològiques i de funcionalitat fan inevitable un canvi de sistema, davant el qual els membres del CBUC estan oberts a noves solucions tècniques i organitzatives que els proporcionin nous avantatges funcionals i econòmics. Per això, el CBUC ha analitzat l'oportunitat d'obrir un nou marc de col·laboració que es fonamentaria en l'establiment d'una instal·lació única i comuna per allotjar el nou sistema informàtic. Un cop analitzats els diferents escenaris possibles, l'opció que es proposa és tenir una aplicació individual per a cada institució compartint un únic sistema informàtic. L'èxit d'experiències internacionals similars avalen una col·laboració com aquesta. És especialment representativa la finlandesa: totes les biblioteques universitàries feien servir des de fa anys el programari VTLS per gestionar-se i van evolucionar conjuntament cap a un nou sistema comú, integrant els disset servidors locals de cada institució en un únic sistema global per a totes (Linnea2). Aquesta col·laboració suposaria l'adquisició d'un únic sistema informàtic que s'instal·laria al CESCA per allotjar les aplicacions de les diferents institucions. Aquestes hi accedirien a través de l'Anella Científica. L'administració de les aplicacions la faria el CBUC. Els principals avantatges que aportaria aquesta solució són: · Increment substancial de la disponibilitat del sistema. · Estalvis econòmics importants (entre 1.742.000 i 2.149.000 euros en cinc anys).
Resumo:
En aquest article es fa una descripció dels procediments realitzats per enregistrar dues imatges geomètricament, de forma automàtica, si es pren la primera com a imatge de referència. Es comparen els resultats obtinguts mitjançant tres mètodes. El primer mètode és el d’enregistrament clàssic en domini espacial maximitzant la correlació creuada (MCC)[1]. El segon mètode es basa en aplicar l’enregistrament MCC conjuntament amb un anàlisi multiescala a partir de transformades wavelet [2]. El tercer mètode és una variant de l’anterior que es situa a mig camí dels dos. Per cada un dels mètodes s’obté una estimació dels coeficients de la transformació que relaciona les dues imatges. A continuació es transforma per cada cas la segona imatge i es georeferencia respecte la primera. I per acabar es proposen unes mesures quantitatives que permeten discutir i comparar els resultats obtinguts amb cada mètode.
Resumo:
Disposar d’informació és imprescindible per a poder prendre decisions correctament. La tendència actual en la pràctica professional és la de valorar el saber utilitzar instruments per a l’obtenció d’evidències científiques. La tecnologia actual posa a l’ abast dels professionals gran quantitat de documents i les eines per recuperar-los. Una de les fronteres que limita la disponibilitat d’ informació és la capacitat dels professionals en poder-la aconseguir i aquesta s’aconsegueix a través de la formació. Des de la perspectiva docent ens preguntàvem si és necessari formar als alumnes de ciències de la salut en temes documentals i quina repercussió està tenint en la seva labor quotidiana. L’ objectiu del present estudi és conèixer l’ importància que li donen els estudiants de tercer curs d’ infermeria a l’aprenentatge de temes documentals, principalment referents a localització i recuperació d’informació. Es vol valorar l’impacte de la formació en documentació durant el període d’ estudis, la perspectiva de l’ impacte sobre el seu futur professional i la importància sobre la vida quotidiana en general. Metodologia. S’ha realitzat una enquesta autocontestada als alumnes de tercer curs de l’ Escola Universitària de Ciències de la Salut de la Universitat de Vic. L’ anàlisi es basa en comparar un grup d’alumnes que ha rebut formació a través de un mòdul específic de documentació, respecte la resta d’alumnes que no l’ han rebut. Resultats. En general, l’ importància que els alumnes atribueixen a la formació en aspectes documentals durant el període de formació acadèmica és de 8,75 punts de mitjana ( escala de 0 a 10). Confirmen que el mòdul de documentació els ha aportat ajuda per realitzar altres assignatures, els seus companys els demanen ajudes relacionades, han millorat la qualitat dels treballs i se senten més capacitats per localitzar i recuperar informació. En un futur laboral immediat, li assignen una importància de 9 punts i creuen els servirà per desenvolupar de forma més eficient l’activitat laboral. L’ importància en la vida quotidiana és puntuada en 8,75 punts, destacant com raó principal el poder seguir el ritme de la societat actual. Discussió. Els alumnes consideren que és necessari i imprescindible disposar d’unes habilitats mínimes en documentació. Els que han seguit el mòdul de documentació valoren més els beneficis que aporten aquests coneixements, respecte els que no l’han seguit. La pràctica i l’ adquisició d’ habilitats documentals han d’integrar-se progressivament, essent el docent el primer en estimular i promoure aquesta dinàmica dins de cada assignatura.
Resumo:
Treball de recerca realitzat per un alumne d’ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l’any 2005. L’objectiu fonamental ha estat la descripció i l’anàlisi lingüística de la parla dels nens petits, és a dir, dels nens de P-2 a P-5, mitjançant una aproximació eminentment pràctica amb un breu recolzament teòric. En una breu introducció teòrica es defineixen els termes lingüístics i les disciplines utilitzades en l’estudi, s’expliquen els diferents factors que intervenen en el procés de la parla, ja que el fet de parlar suposa haver arribat a un grau determinat de desenvolupament físic, motor, sensorial, cognitiu, etc. També s’esmenten les relacions entre llenguatge i pensament i les diverses teories que expliquen l’origen del llenguatge. I, per acabar, es fa una pinzellada a les característiques evolutives dels nens des del seu naixement fins que tenen cinc-sis anys. En la part pràctica, s’analitza la parla dels nens de P-2 a P-5 mitjançant el mètode de l’enquesta directa a una seixantena de nens i d’altres proves, fent referència a una sèrie d’aspectes lingüístics considerats importants per tal d’entendre l’evolució de la parla en cada edat com són els nivells morfològic, sintàctic, fonètic, lèxic, així com els elements de la comunicació no verbal.
Resumo:
Desde 1999, el Centre de Supercomputació de Catalunya (CESCA) promociona actividades para poner en acceso abierto contenido en internet, contribuyendo al avance de la e-Ciencia en nuestro país. Junto con el Consorci de Biblioteques Universitàries de Catalunya (CBUC) se han creado tres repositorios: Tesis Doctorales en Red (TDR), Dipòsit de la Recerca de Catalunya (RECERCAT) y Revistes Catalanes amb Accés Obert (RACO). En septiembre de 2006, la Biblioteca Nacional de Catalunya[6] ha puesto en marcha otro ambicioso repositorio en colaboración con el CESCA, Patrimoni Digital de Catalunya (PADICAT).