977 resultados para 571.1 Animali (Classificare qui la Fisiologia comparata)
Ley de Reforma Política : Análisis de la Ley 26.571/09 en el Partido de General Pueyrredon 2009/2013
Resumo:
El presente trabajo analiza las transformaciones que produjo en la realidad política y partidaria del Partido de General Pueyrredon, la puesta en vigencia de la Ley nacional 26.571/09 de "Democratización de la Representatividad política, la transparencia y la equidad electoral". La norma, a la cual adhirió la provincia de Buenos Aires, modificó los requerimientos para la selección de los candidatos de las agrupaciones políticas y, como dato relevante, instauró el sistema de elecciones Primarias Abiertas, Simultáneas y Obligatorias (PASO). La investigación presenta una introducción general al estado de la cuestión de la ley, explicitando y detallando sus causas y contenidos para comprender la magnitud de su aplicación en un distrito de la provincia de Buenos Aires. El universo del análisis son las elecciones del Partido de General Pueyrredon, determinación que tuvo en cuenta que este municipio es representativo en términos electorales. Dentro del universo de los 135 municipios que componen la provincia, se ubica como el segundo distrito electoral más importante. Se realiza un análisis comparativo del comportamiento electoral municipal observando los resultados del año 2009 y los del 2013. Se busca determinar si luego de sancionada y aplicada la norma, se produjeron cambios en el ordenamiento del sistema político local, centralmente en lo que refiere al comportamiento de los partidos vecinales y a la conformación del cuerpo deliberante
Ley de Reforma Política : Análisis de la Ley 26.571/09 en el Partido de General Pueyrredon 2009/2013
Resumo:
El presente trabajo analiza las transformaciones que produjo en la realidad política y partidaria del Partido de General Pueyrredon, la puesta en vigencia de la Ley nacional 26.571/09 de "Democratización de la Representatividad política, la transparencia y la equidad electoral". La norma, a la cual adhirió la provincia de Buenos Aires, modificó los requerimientos para la selección de los candidatos de las agrupaciones políticas y, como dato relevante, instauró el sistema de elecciones Primarias Abiertas, Simultáneas y Obligatorias (PASO). La investigación presenta una introducción general al estado de la cuestión de la ley, explicitando y detallando sus causas y contenidos para comprender la magnitud de su aplicación en un distrito de la provincia de Buenos Aires. El universo del análisis son las elecciones del Partido de General Pueyrredon, determinación que tuvo en cuenta que este municipio es representativo en términos electorales. Dentro del universo de los 135 municipios que componen la provincia, se ubica como el segundo distrito electoral más importante. Se realiza un análisis comparativo del comportamiento electoral municipal observando los resultados del año 2009 y los del 2013. Se busca determinar si luego de sancionada y aplicada la norma, se produjeron cambios en el ordenamiento del sistema político local, centralmente en lo que refiere al comportamiento de los partidos vecinales y a la conformación del cuerpo deliberante
Ley de Reforma Política : Análisis de la Ley 26.571/09 en el Partido de General Pueyrredon 2009/2013
Resumo:
El presente trabajo analiza las transformaciones que produjo en la realidad política y partidaria del Partido de General Pueyrredon, la puesta en vigencia de la Ley nacional 26.571/09 de "Democratización de la Representatividad política, la transparencia y la equidad electoral". La norma, a la cual adhirió la provincia de Buenos Aires, modificó los requerimientos para la selección de los candidatos de las agrupaciones políticas y, como dato relevante, instauró el sistema de elecciones Primarias Abiertas, Simultáneas y Obligatorias (PASO). La investigación presenta una introducción general al estado de la cuestión de la ley, explicitando y detallando sus causas y contenidos para comprender la magnitud de su aplicación en un distrito de la provincia de Buenos Aires. El universo del análisis son las elecciones del Partido de General Pueyrredon, determinación que tuvo en cuenta que este municipio es representativo en términos electorales. Dentro del universo de los 135 municipios que componen la provincia, se ubica como el segundo distrito electoral más importante. Se realiza un análisis comparativo del comportamiento electoral municipal observando los resultados del año 2009 y los del 2013. Se busca determinar si luego de sancionada y aplicada la norma, se produjeron cambios en el ordenamiento del sistema político local, centralmente en lo que refiere al comportamiento de los partidos vecinales y a la conformación del cuerpo deliberante
Resumo:
Talamanca de Jarama posee un rico patrimonio arquitectónico que se ha ido degradando con el paso del tiempo. Aunque se han considerado realizar acciones para remediar esta situación pocas han sido acometidas, debido a la magnitud que requieren y los recursos insuficientes propios de la localidad. En este sentido, muchos municipios de España no pueden realizar ni acometer, por sí mismos, trabajos que superan su capacidad económica y dependen de las administraciones autonómicas o estatales, que realizan los trámites pertinentes para otorgar la financiación o la subvención conveniente, en caso de fallar a favor del proyecto en cuestión. Actualmente, en la Ley de Patrimonio Histórico, existe el denominado 1% Cultural, que “establece la obligación de destinar en los contratos de obras públicas una partida de, al menos, el 1% a trabajos de conservación o enriquecimiento del Patrimonio Histórico Español”. En esta línea, desde la Dirección General de Patrimonio Histórico, de la Comunidad de Madrid, se están llevando a cabo los trámites y trabajos necesarios para restaurar parte del recinto fortificado de Talamanca de Jarama, percatándose de la falta de cartografía y documentación gráfica actualizada del mismo, que apoye esas labores y las que pudieran presentarse en el futuro, llevándose a cabo, en 2011, un “proyecto de ejecución para la restauración de la puerta de la Tostonera y de un tramo del sector oriental del recinto fortificado de Talamanca de Jarama”, en el que se realiza un estudio y propuesta de intervención detallados sobre la muralla, figurando la totalidad del mismo en el Anexo IV. Advirtiendo esta carencia, el presente proyecto pretende dar soporte cartográfico a los trabajos que tengan por objeto dicho monumento y facilitar la información a las distintas Administraciones Públicas, para que éstas, a su vez, dispongan y divulguen su contenido a las personas o entes que lo requieran. A tenor de los antecedentes expuestos anteriormente, el presente proyecto tiene por objetivos: - Implantación de una red básica enlazada con la Red Geodésica Nacional por Técnicas Espaciales (REGENTE) y apoyada en vértices ROI, mediante técnicas GPS y topografía clásica, que dé cobertura a todo el perímetro amurallado, con una extensión de 10 Ha. - Realización de un levantamiento topográfico a escala 1:500, de 10 Ha, de la muralla intramuros y extramuros. - Realización de la cartografía a escala 1:500.
Resumo:
De una manera general, se plantea la posible necesidad de adoptar un enfoque diferente al tomado hasta hoy, de una progresiva especialización en la Ciencia y la Tecnología. De acuerdo con algunos de los planteamientos existentes para el estudio de ambas, y más en concreto de los derivados de la Teoría del Caos o de la Complejidad, se postula la necesidad de adoptar unos enfoques más interdisciplinarios que los existentes hasta hoy. Un más rápido avance de todas las ramas del conocimiento se cree puede ser resultado de este nuevo enfoque.
Resumo:
La diabetes mellitus es un trastorno en la metabolización de los carbohidratos, caracterizado por la nula o insuficiente segregación de insulina (hormona producida por el páncreas), como resultado del mal funcionamiento de la parte endocrina del páncreas, o de una creciente resistencia del organismo a esta hormona. Esto implica, que tras el proceso digestivo, los alimentos que ingerimos se transforman en otros compuestos químicos más pequeños mediante los tejidos exocrinos. La ausencia o poca efectividad de esta hormona polipéptida, no permite metabolizar los carbohidratos ingeridos provocando dos consecuencias: Aumento de la concentración de glucosa en sangre, ya que las células no pueden metabolizarla; consumo de ácidos grasos mediante el hígado, liberando cuerpos cetónicos para aportar la energía a las células. Esta situación expone al enfermo crónico, a una concentración de glucosa en sangre muy elevada, denominado hiperglucemia, la cual puede producir a medio o largo múltiples problemas médicos: oftalmológicos, renales, cardiovasculares, cerebrovasculares, neurológicos… La diabetes representa un gran problema de salud pública y es la enfermedad más común en los países desarrollados por varios factores como la obesidad, la vida sedentaria, que facilitan la aparición de esta enfermedad. Mediante el presente proyecto trabajaremos con los datos de experimentación clínica de pacientes con diabetes de tipo 1, enfermedad autoinmune en la que son destruidas las células beta del páncreas (productoras de insulina) resultando necesaria la administración de insulina exógena. Dicho esto, el paciente con diabetes tipo 1 deberá seguir un tratamiento con insulina administrada por la vía subcutánea, adaptado a sus necesidades metabólicas y a sus hábitos de vida. Para abordar esta situación de regulación del control metabólico del enfermo, mediante una terapia de insulina, no serviremos del proyecto “Páncreas Endocrino Artificial” (PEA), el cual consta de una bomba de infusión de insulina, un sensor continuo de glucosa, y un algoritmo de control en lazo cerrado. El objetivo principal del PEA es aportar al paciente precisión, eficacia y seguridad en cuanto a la normalización del control glucémico y reducción del riesgo de hipoglucemias. El PEA se instala mediante vía subcutánea, por lo que, el retardo introducido por la acción de la insulina, el retardo de la medida de glucosa, así como los errores introducidos por los sensores continuos de glucosa cuando, se descalibran dificultando el empleo de un algoritmo de control. Llegados a este punto debemos modelar la glucosa del paciente mediante sistemas predictivos. Un modelo, es todo aquel elemento que nos permita predecir el comportamiento de un sistema mediante la introducción de variables de entrada. De este modo lo que conseguimos, es una predicción de los estados futuros en los que se puede encontrar la glucosa del paciente, sirviéndonos de variables de entrada de insulina, ingesta y glucosa ya conocidas, por ser las sucedidas con anterioridad en el tiempo. Cuando empleamos el predictor de glucosa, utilizando parámetros obtenidos en tiempo real, el controlador es capaz de indicar el nivel futuro de la glucosa para la toma de decisones del controlador CL. Los predictores que se están empleando actualmente en el PEA no están funcionando correctamente por la cantidad de información y variables que debe de manejar. Data Mining, también referenciado como Descubrimiento del Conocimiento en Bases de Datos (Knowledge Discovery in Databases o KDD), ha sido definida como el proceso de extracción no trivial de información implícita, previamente desconocida y potencialmente útil. Todo ello, sirviéndonos las siguientes fases del proceso de extracción del conocimiento: selección de datos, pre-procesado, transformación, minería de datos, interpretación de los resultados, evaluación y obtención del conocimiento. Con todo este proceso buscamos generar un único modelo insulina glucosa que se ajuste de forma individual a cada paciente y sea capaz, al mismo tiempo, de predecir los estados futuros glucosa con cálculos en tiempo real, a través de unos parámetros introducidos. Este trabajo busca extraer la información contenida en una base de datos de pacientes diabéticos tipo 1 obtenidos a partir de la experimentación clínica. Para ello emplearemos técnicas de Data Mining. Para la consecución del objetivo implícito a este proyecto hemos procedido a implementar una interfaz gráfica que nos guía a través del proceso del KDD (con información gráfica y estadística) de cada punto del proceso. En lo que respecta a la parte de la minería de datos, nos hemos servido de la denominada herramienta de WEKA, en la que a través de Java controlamos todas sus funciones, para implementarlas por medio del programa creado. Otorgando finalmente, una mayor potencialidad al proyecto con la posibilidad de implementar el servicio de los dispositivos Android por la potencial capacidad de portar el código. Mediante estos dispositivos y lo expuesto en el proyecto se podrían implementar o incluso crear nuevas aplicaciones novedosas y muy útiles para este campo. Como conclusión del proyecto, y tras un exhaustivo análisis de los resultados obtenidos, podemos apreciar como logramos obtener el modelo insulina-glucosa de cada paciente. ABSTRACT. The diabetes mellitus is a metabolic disorder, characterized by the low or none insulin production (a hormone produced by the pancreas), as a result of the malfunctioning of the endocrine pancreas part or by an increasing resistance of the organism to this hormone. This implies that, after the digestive process, the food we consume is transformed into smaller chemical compounds, through the exocrine tissues. The absence or limited effectiveness of this polypeptide hormone, does not allow to metabolize the ingested carbohydrates provoking two consequences: Increase of the glucose concentration in blood, as the cells are unable to metabolize it; fatty acid intake through the liver, releasing ketone bodies to provide energy to the cells. This situation exposes the chronic patient to high blood glucose levels, named hyperglycemia, which may cause in the medium or long term multiple medical problems: ophthalmological, renal, cardiovascular, cerebrum-vascular, neurological … The diabetes represents a great public health problem and is the most common disease in the developed countries, by several factors such as the obesity or sedentary life, which facilitate the appearance of this disease. Through this project we will work with clinical experimentation data of patients with diabetes of type 1, autoimmune disease in which beta cells of the pancreas (producers of insulin) are destroyed resulting necessary the exogenous insulin administration. That said, the patient with diabetes type 1 will have to follow a treatment with insulin, administered by the subcutaneous route, adapted to his metabolic needs and to his life habits. To deal with this situation of metabolic control regulation of the patient, through an insulin therapy, we shall be using the “Endocrine Artificial Pancreas " (PEA), which consists of a bomb of insulin infusion, a constant glucose sensor, and a control algorithm in closed bow. The principal aim of the PEA is providing the patient precision, efficiency and safety regarding the normalization of the glycemic control and hypoglycemia risk reduction". The PEA establishes through subcutaneous route, consequently, the delay introduced by the insulin action, the delay of the glucose measure, as well as the mistakes introduced by the constant glucose sensors when, decalibrate, impede the employment of an algorithm of control. At this stage we must shape the patient glucose levels through predictive systems. A model is all that element or set of elements which will allow us to predict the behavior of a system by introducing input variables. Thus what we obtain, is a prediction of the future stages in which it is possible to find the patient glucose level, being served of input insulin, ingestion and glucose variables already known, for being the ones happened previously in the time. When we use the glucose predictor, using obtained real time parameters, the controller is capable of indicating the future level of the glucose for the decision capture CL controller. The predictors that are being used nowadays in the PEA are not working correctly for the amount of information and variables that it need to handle. Data Mining, also indexed as Knowledge Discovery in Databases or KDD, has been defined as the not trivial extraction process of implicit information, previously unknown and potentially useful. All this, using the following phases of the knowledge extraction process: selection of information, pre- processing, transformation, data mining, results interpretation, evaluation and knowledge acquisition. With all this process we seek to generate the unique insulin glucose model that adjusts individually and in a personalized way for each patient form and being capable, at the same time, of predicting the future conditions with real time calculations, across few input parameters. This project of end of grade seeks to extract the information contained in a database of type 1 diabetics patients, obtained from clinical experimentation. For it, we will use technologies of Data Mining. For the attainment of the aim implicit to this project we have proceeded to implement a graphical interface that will guide us across the process of the KDD (with graphical and statistical information) of every point of the process. Regarding the data mining part, we have been served by a tool called WEKA's tool called, in which across Java, we control all of its functions to implement them by means of the created program. Finally granting a higher potential to the project with the possibility of implementing the service for Android devices, porting the code. Through these devices and what has been exposed in the project they might help or even create new and very useful applications for this field. As a conclusion of the project, and after an exhaustive analysis of the obtained results, we can show how we achieve to obtain the insulin–glucose model for each patient.
Resumo:
This layer is a georeferenced raster image of the historic paper map entitled: Plan de Bordeaux. It was published ca. 1910. Scale 1:10,000. Covers La Gironde Rivière area, Bordeaux, France. This layer is image 1 of 2 total images of the two sheet source map, representing the southern portion of the map. Map in French. The image inside the map neatline is georeferenced to the surface of the earth and fit to the 'European Datum 1950 UTM 30N' projected coordinate system. All map collar and inset information is also available as part of the raster image, including any inset maps, profiles, statistical tables, directories, text, illustrations, index maps, legends, or other information associated with the principal map. This map shows features such as roads, railroads, drainage, built-up areas and selected buildings and industries, docks and wharves, and more. Includes manuscript additions. This layer is part of a selection of digitally scanned and georeferenced historic maps from The Harvard Map Collection as part of the Imaging the Urban Environment project. Maps selected for this project represent major urban areas and cities of the world, at various time periods. These maps typically portray both natural and manmade features at a large scale. The selection represents a range of regions, originators, ground condition dates, scales, and purposes.
Resumo:
Includes bibliographical references (p. [195]-208).
Resumo:
CCBE S. XVI,
Resumo:
Index to v. 16-41 issued in 2008 as separate volume.
Resumo:
Visant à contribuer à la pérennité de la musique d’art instrumentale, cette thèse aborde plusieurs sujets la concernant, autant sur les plans théorique et esthétique que pratique et compositionnel. Les deux principaux contextes observés sont ceux de la modernité et de l’économie de marché. Le premier, par le triomphe de la raison technicienne, aurait conduit à l’autonomie de l’art désormais confronté aux risques de l’autoréférence. Le deuxième, par la pression exercée sur le compositeur à la base de la chaîne création-production-diffusion, compromettrait cette autonomie qu’elle avait pourtant contribuée à rendre possible. Or, l’autonomie de l’art, en tant que conquête sur les plans esthétique, social, politique, économique et intellectuel, représente un enjeu de taille, puisque d’éventuelles compromissions envers des impératifs extérieurs impliquent un recul sur tous ces plans. Pour répondre à cette problématique, la thèse explore des pistes de réflexions et d’opérations pour réaffirmer – en le revendiquant – ce que la musique d’art possède en propre et qui mérite encore d’être entendu, militant ainsi pour la survie de ce qui la rend possible. Plus précisément, la dialectique du son et de la musique que je développe ici me permet, dans un premier temps, d’aborder les médiations successives conduisant des ondes mécaniques à se structurer dans notre conscience jusqu’à se transmettre à nous sous forme de patrimoine; puis, dans un deuxième temps, de décrire ma propre intention de communication par la musique en analysant deux œuvres de ma composition : Musique d’art pour quintette à cordes et Musique d’art pour orchestre de chambre II (partie 1.). Musique d’art pour quintette à cordes est une œuvre-concert de soixante-cinq minutes pour quatuor à cordes et contrebasse, spatialisation, traitement et mise en espace des musiciens. Il s’agit d’un projet de recherche-création de mon initiative que j’ai aussi mené à titre de producteur. Musique d’art pour orchestre de chambre II (partie 1.) est une œuvre de commande de quatorze minutes. Le retour critique portant sur l’ensemble des composantes caractéristiques du média ouvre la voie à une corrélation plus étroite entre son contenu et sa forme privilégiée de présentation, le concert. Cette corrélation peut amener le public à désirer visiter les œuvres et apprécier leur signification, préservant la musique d’art comme mode spécifique de connaissance du monde.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
L'objet d'étude de cette recherche était l'enseignement de la grammaire au 2e cycle du primaire. Les chercheuses ont constaté un écart considérable du nombre de notions prescrites par le Programme de formation de l'école québécoise (2001) entre la 2e année du 1 er cycle et la 1 re année du 2e cycle. De plus, dans les manuels scolaires du 2e cycle, une grande majorité des nouveaux savoirs essentiels était abordée dans ceux de la 1re année de ce cycle. L'année suivante, peu de nouvelles notions sont travaillées. Ce qui explique que plusieurs élèves éprouvent des difficultés d'apprentissage en grammaire dès le début du 2e cycle. Afin d'améliorer cette situation, les notions de grammaire pourraient être travaillées différemment de ce que proposent les manuels puisque le Programme de formation (2001) est conçu sur deux ans. L'objectif des chercheuses était donc de bien outiller les enseignants pour travailler la grammaire du 2e cycle d'une façon différente. Pour ce faire, la création d'un jeu éducatif qui tient compte de la différenciation pour l'enseignement de la grammaire au 2e cycle pouvait être un bon outil.
Resumo:
[...] D'une façon globale, il semble donc exister trois grandes tendances dans le domaine de la formation : 1. une personnalisation de la formation pour l'apprenant ; 2. un rapprochement de la formation vers l'étudiant ; 3. une individualisation de la formation. On entend par personnalisation de la formation le fait que le contenu des cours est de plus en plus adapté aux caractéristiques propres des groupes visés et à leurs besoins. Le rapprochement de la formation vers l'étudiant signifie que plus que jamais, on tente de déplacer la formation vers l'apprenant plutôt que de déplacer celui-ci vers une classe qui ne reflète pas son milieu de travail. Quant à l'individualisation de la formation, cela veut dire que l'étudiant aura, dans un avenir proche, un accès de plus en plus individuel à la formation ; il pourra communiquer avec le formateur lorsqu'il désirera obtenir sa formation. La mise sur pied de centres de formation utilisant la vidéoconférence en salle comme outil de communication par des établissements d'enseignement, tels que l'Université du Tennessee (14 sites de vidéoconférence), le consortium d'éducation de l'Illinois de l'ouest (29 sites), l'école Escambia du comté d'Escambia en Floride (8 sites) et l'Université du Kentucky (7 sites) aux États-Unis, confirment ou nous incitent à croire que ces tendances sont fondées. Ainsi, devant ces nouvelles possibilités et réalités, les entreprises et les établissements d'enseignement doivent réévaluer leurs méthodes de formation à distance. La formation à distance peut-elle bénéficier de ces développements technologiques ? Pourrait-elle utiliser un outil de communication telle que la vidéoconférence pour dispenser des programmes de formation à distance ? Il apparaît donc qu'il faut évaluer la possibilité d'employer la vidéoconférence en salle pour dispenser des programmes de formation à distance.
Resumo:
La performance d’un produit de finition sur le bois est influencée par la manière dont la surface est préparée. Le ponçage est très utilisé pour préparer les surfaces lors de la finition. Toutefois, ce procédé génère une grande quantité de poussières. Ainsi, les effets des procédés d’usinage sur les propriétés de surface, la performance d’un vernis et l’émission de poussières ont été étudiés dans le but de déterminer les modes de préparation des surfaces les plus adéquats pour le bois de chêne rouge. Dans un premier volet, les propriétés de surface et la performance d’un vernis ont été évaluées sur les surfaces préparées à l’aide du procédé traditionnel de ponçage et de trois procédés alternatifs de rabotage soit la coupe périphérique droite, la coupe hélicoïdale et la coupe oblique. La qualité de surface a été évaluée au moyen des caractéristiques de rugosité, d’endommagement cellulaire et de mouillabilité. Des essais de résistance à l’adhésion d’un vernis d’usage intérieur ont été effectués avant et après un traitement de vieillissement accéléré. Les résultats ont montré que le ponçage a induit une rugosité et un niveau de fibrillation supérieurs à ceux des autres procédés, ainsi qu’une mouillabilité et une adhésion du vernis après vieillissement accéléré élevées. Les surfaces rabotées avec la coupe périphérique droite ont présenté un certain niveau de fibrillation, une rugosité et une mouillabilité intermédiaires. Néanmoins, l’adhésion du vernis après vieillissement a été également inférieure par rapport aux autres procédés. La coupe hélicoïdale a produit une rugosité intermédiaire. D’autre part, la coupe oblique a été le procédé qui a présenté une perte d’adhésion après vieillissement similaire au ponçage. Ce procédé a généré des surfaces lisses avec rugosité et mouillabilité intermédiaires. Sur la base des résultats obtenus, le ponçage à l’aide d’un programme P100-grain et une vitesse d’avance de 7 m/min, la coupe périphérique droite avec un angle d’attaque de 25° et une onde d’usinage de 1,0 mm, la coupe hélicoïdale avec une onde d’usinage de 1,0 mm et la coupe oblique realisé avec un angle oblique de 15° ont permis d’obtenir les meilleures conditions d’usinage pour chaque procédé. Dans un deuxième volet, l’effet de différents paramètres de coupe sur l’émission de poussières et la rugosité de la surface a été étudié lors de la coupe hélicoïdale. Les émissions de poussières ont diminué avec la diminution de laprofondeur de coupe et l’augmentation de l’épaisseur moyenne du copeau. Cependant, les surfaces obtenues avec l’épaisseur moyenne du copeau plus élevée ont présenté une rugosité supérieure. Par contre, si une surface plus lisse est requise, une vitesse d’avance intermédiaire doit être utilisée afin de diminuer la rugosité des surfaces sans exposer les travailleurs à des niveaux élevés de poussière de bois. Par ailleurs, l’émission de poussières pour chaque fraction de particules peut être estimée à travers les modèles développés.