981 resultados para Synchronized multimedia integration language - SMIL


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The study tested three analytic tools applied in SLA research (T-unit, AS-unit and Idea-unit) against FL learner monologic oral data. The objective was to analyse their effectiveness for the assessment of complexity of learners' academic production in English. The data were learners' individual productions gathered during the implementation of a CLIL teaching sequence on Natural Sciences in a Catalan state secondary school. The analysis showed that only AS-unit was easily applicable and highly effective in segmenting the data and taking complexity measures

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La plataforma d’e-learning: COMalaWEB és una eina multimedia de suport a l’estudi, l’experimentació i l’adquisició de tècniques d’autoaprenentatge. COMalaWEB s’ofereix com a punt de trobada entre estudiants, professors i altres professionals relacionats amb el mon de les telecomunicacions i/o de la docència universitària. Mitjançant el present projecte s’ha dut a terme la consolidació de la plataforma COMalaWEB com a eina WWW d'autoaprenentatge per a l'EEES (Estudis de Bachelor i de Màster): Dins de la plataforma s’hi ha integrat un Laboratori Virtual per a comunicacions analògiques i digitals (LaViCAD) que ofereix activitats experimentals amb un gran ventall de possibilitats que van des de les demostracions teòriques fins a l’emulació de sistemes de comunicacions quotidians com per exemple la televisió digital o el sistema Wifi dels sistemes WLAN. L’altre gran component de la plataforma es la base de dades de continguts empaquetada en unitats bàsiques anomenades objectes de coneixement, organitzada en cursos, integren tant continguts teòrics com un conjunt d’exercicis proposats per a aprofundir cadascun dels temes tractats. Amb l’actual projecte s’ha treballat en les següents línies d’actuació: - Integració dels simuladors del laboratori LAVICAD a la plataforma d’autoaprenentatge. - Creació de base de dades de recursos docents basats en paquets SCORM per a oferir materials docents de tipus teòric i col·leccions d’exercicis resolts en el marc de les diferents assignatures participants en el projecte. - Creació de base de dades de tipus qüestionari per a oferir exercicis a treballar en el marc de les diferents assignatures participants en el projecte. - Inserció de metodologies docents basades en els anteriors recursos en diferents assignatures d’estudis d’enginyeria i de màster.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La validació de mètodes és un dels pilars fonamentals de l’assegurament de la qualitat en els laboratoris d’anàlisi, tal i com queda reflectit en la norma ISO/IEC 17025. És, per tant, un aspecte que cal abordar en els plans d’estudis dels presents i dels futurs graus en Química. Existeix molta bibliografia relativa a la validació de mètodes, però molt sovint aquesta s’utilitza poc, degut a la dificultat manifesta de processar tota la informació disponible i aplicar-la al laboratori i als problemes concrets. Una altra de les limitacions en aquest camps és la manca de programaris adaptats a les necessitats del laboratori. Moltes de les rutines estadístiques que es fan servir en la validació de mètodes són adaptacions fetes amb Microsoft Excel o venen incorporades en paquets estadístics gegants, amb un alt grau de complexitat. És per aquest motiu que l’objectiu del projecte ha estat generar un programari per la validació de mètodes i l’assegurament de la qualitat dels resultats analítics, que incorporés únicament les rutines necessàries. Específicament, el programari incorpora les funcions estadístiques necessàries per a verificar l’exactitud i avaluar la precisió d’un mètode analític. El llenguatge de programació triat ha estat el Java en la seva versió 6. La part de creació del programari ha constat de les següents etapes: recollida de requisits, anàlisi dels requisits, disseny del programari en mòduls, programació d les funcions del programa i de la interfície gràfica, creació de tests d’integració i prova amb usuaris reals, i, finalment, la posada en funcionament del programari (creació de l’instal·lador i distribució del programari).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Vegeu el resum a l'inici del document del fitxer adjunt."

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Integration of kDNA sequences within the genome of the host cell shown by PCR amplification with primers to the conserved Trypanosoma cruzi kDNA minicircle sequence was confirmed by Southern hybridization with specific probes. The cells containing the integrated kDNA sequences were then perpetuated as transfected macrophage subclonal lines. The kDNA transfected macrophages expressed membrane antigens that were recognized by antibodies in a panel of sera from ten patients with chronic Chagas disease. These antigens barely expressed in the membrane of uninfected, control macrophage clonal lines were recognized neither by factors in the control, non-chagasic subjects nor in the chagasic sera. This finding suggests the presence of an autoimmune antibody in the chagasic sera that recognizes auto-antigens in the membrane of T. cruzi kDNA transfected macrophage subclonal lines.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Easy Read version of Speech, Language and Communication Therapy Action Plan (2011/12 - 2012/13)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PURPOSE: Bilingual aphasia generally affects both languages. However, the age of acquisition of the second language (L2) seems to play a role in the anatomo-functional correlation of the syntactical/grammatical processes, thus potentially influencing the L2 syntactic impairment following a stroke. The present study aims to analyze the influence of late age of acquisition of the L2 on syntactic impairment in bilingual aphasic patients. METHODS: Twelve late bilingual participants (speaking French as L2 and either English, German, Italian or Spanish as L1) with stroke-induced aphasia participated in the study. The MAST or BAT aphasia batteries were used to evaluate overall aphasia score. An auditory syntactic judgement task was developed and used to test participants syntactic performance. RESULTS: The overall aphasia scores did not differ between L1 and L2. In a multiple case analysis, only one patient had lower scores in L2. However, four patients presented significantly lower performances in syntactic processing in the late L2 than in their native language (L1). In these four patients the infarct was localized, either exclusively or at least partially, in the pre-rolandic region. CONCLUSION: This pilot study suggests that, in late bilingual aphasics, syntactic judgment abilities may be more severely impaired in L2, and that this syntactic deficit is most likely to occur following anterior lesions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Speech and Language task force report

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.