968 resultados para Optimisation des procédures
Resumo:
O presente estudo inscreve-se na área científica da Formação de Professores, incidindo, particularmente, na compreensão do processo de desenvolvimento das competências reflexivas percebidas como factor de promoção do seu próprio desenvolvimento profissional e pessoal, do desenvolvimento da capacidade de pensar dos seus alunos, da revalorização dos processos curriculares de ensino-aprendizagem e de inovação dos contextos educacionais. Num contexto de complexidade, incerteza e mudança, importa repensar estratégias de formação de professores e de alunos para que possam constituir-se como fatores potenciadores do desenvolvimento da competência reflexiva. Estratégias que convocam, quer o professor, quer o aluno, para um tipo de questionamento de maior exigência reflexiva e consideradas potenciadoras do pensamento crítico, criativo e de cuidado com o outro, numa perspetiva educativa centrada no cuidar, que valoriza a dimensão humana, a atuação responsável, ética e solidária, em todos os planos da vida. Neste estudo propomo-nos retomar algumas das estratégias de formação já configuradas no movimento Filosofia para Crianças e que se constituíram como um programa de formação em contexto, no qual se procurou aprofundar e compreender as múltiplas dimensões e modos como interatuam os diferentes participantes da relação educativa em práticas curriculares reconfiguradas à luz dos pressupostos que sustentam este estudo. Do ponto de vista metodológico, a investigação inscreve-se num paradigma de natureza qualitativa e interpretativa, de matriz hermenêutica e ecológica, configurando uma abordagem de tipo complexo, e com características de estudo de caso, que considera indispensável a participação ativa do sujeito na construção do conhecimento próprio, bem como o carácter de imprevisibilidade e de recursividade das condições e subsistemas em que tal ocorre. No sentido de construir uma visão integrada do objeto em estudo, foram desenvolvidos procedimentos específicos (mixed-methods), nomeadamente análise documental, entrevista semiestruturada, observação participante e inquirição por questionário. O estudo, que decorreu na região centro do país, envolveu 5 professoras do 1.º Ciclo do Ensino Básico, 100 alunos do mesmo nível de ensino e os seus pais/encarregados de educação, inquiridos através de questionário e desenvolveu-se em duas fases. A primeira destinou-se à formação teórico-prática das professoras e, na segunda, foram desenvolvidas sessões práticas de Filosofia para Crianças com os alunos. Os portfolios reflexivos construídos pelos participantes e pela investigadora principal constituíram outra fonte da informação recolhida no estudo empírico. Os resultados do estudo situam-se a quatro níveis: no que respeita aos saberes básicos, ao perfil de competência dos professores, à sua formação e às estratégias e recursos considerados como potenciadores de um pensar de mais elevada qualidade. Quanto ao primeiro nível, o presente estudo releva o carácter estruturante e epistémico de aprender a pensar (bem), salientando que este se processa numa maior amplitude e profundidade dos conteúdos da própria reflexão, às quais subjaz uma visão ampla de cidadania planetária e socialmente comprometida, evidenciando uma ampliação do quadro referencial dos saberes básicos e considerados imprescindíveis para a educação dos cidadãos. A um segundo nível, salienta-se a exigência de um perfil de competência profissional que permita aos professores desenvolver nos seus alunos um pensar de qualidade e, simultaneamente, melhorar a sua própria competência reflexiva. Neste sentido, o estudo aponta para a continuidade das respostas que têm vindo a ser equacionadas por vários autores nacionais e internacionais que, ao abordarem a problemática da formação, do conhecimento profissional e do desenvolvimento identitário dos professores, têm acentuado a importância dos modelos crítico-reflexivos da formação e de uma supervisão ecológica, integradora, não standard e humanizada, no desenvolvimento das sociedades contemporâneas. Conforme os dados sugerem, admite-se que a formação integral dos cidadãos passa pela inclusão e interligação de diferentes áreas do conhecimento que, concertada e complementarmente, possam contribuir para o desenvolvimento da sensibilidade, do pensamento crítico e criativo, de uma cultura da responsabilidade e de uma atitude ética mais ativa e interventiva. Neste sentido, reafirma-se a importância de um trajeto formativo que promova a efetiva articulação entre teoria e a prática, o diálogo crítico-reflexivo entre saberes científicos e experiência, que focalize o profissional na sua praxis e saliente a sua conexão com o saber situado em contexto vivencial e didático- -pedagógico. Realça-se a pertinência de dinâmicas formativas que, a exemplo de “comunidades de investigação/aprendizagem”, na sua aceção de redes de formação que, na prossecução de projetos e propósitos comuns, incentivam a construção de itinerários próprios e de aprendizagens individuais, mobilizando processos investigativos pessoais e grupais. Evidencia-se a valorização de práticas promotoras da reflexão, do questionamento, da flexibilidade cognitiva como eixos estruturadores do pensamento e da ação profissional e como suporte do desenvolvimento profissional e pessoal, corroborando a importância dos processos transformadores decorrentes da experiência, da ação e da reflexão sobre ela. Finalmente, no que respeita às estratégias e recursos, os dados permitem corroborar a riqueza e o potencial do uso de portfolios reflexivos no desenvolvimento de competências linguísticas, comunicacionais, reflexivas e meta-reflexivas e o entendimento de que o processo de construção da identidade profissional ocorre e desenha-se numa dinâmica reflexiva- -prospetiva (re)confirmadora ou (re)configuradora de ideias, convicções, saberes e práticas, ou seja, identitária. De igual modo, a investigação releva a importância da construção de portfolios, por parte dos alunos, para o desenvolvimento da qualidade do seu pensamento, sublinhando-se o seu carácter inovador nesta área. Evidencia-se, ainda, a diversidade de estratégias que respeitem os interesses, necessidades e expectativas dos alunos e o seu contexto de vida, tal como o recurso a materiais diversificados que, atentos ao conteúdo da mensagem, possibilitem a autonomia do pensamento, o exercício efetivo da reflexão crítica e do questionamento, na sua articulação com as grandes questões que sempre despertaram a curiosidade humana e cuja atualidade permanece. Materiais e recursos que estabeleçam o diálogo entre razão e imaginação, entre saber e sensibilidade, que estimulem o envolvimento dos alunos na resolução de problemas e na procura conjunta de soluções e na construção de projetos individuais na malha dos projetos comuns. Reafirma-se, pois, a importância da humanização do saber, a educação pensada como vivência solidária de direitos e deveres. Uma perspetiva educacional humanista que assenta nas trajetórias de vida, na recuperação de experiências pessoais e singulares, que procura compreender a identidade como um processo em (re)elaboração permanente. O presente estudo integra-se na rede de cooperação científica Novos saberes básicos dos alunos no século XXI, novos desafios à formação de professores sendo que, e na linha das investigações produzidas neste âmbito, destaca que o alargamento das funções do professor do 1.º Ciclo do Ensino Básico, que colocando a tónica da ação pedagógica no como se aprende e para quê e na possibilidade de aprender e incorporar o imprevisível, incide no desenvolvimento de um conjunto de capacidades que vão para além das tradicionalmente associadas ao ensinar a ler, escrever e contar. Releva-se, pois, a pertinência da criação de ambientes educativos nos quais professores e alunos entreteçam, conjunta e coerentemente, conhecer, compreender, fazer, sentir, dizer, ver, ouvir e (con)viver em prol de uma reflexão que nos encaminhe no sentido de ser(mos) consciência.
Resumo:
Trabalho de projeto de mestrado, Ciências da Educação (Formação de Adultos), Universidade de Lisboa, Instituto de Educação, 2013
Resumo:
RESUMO O Problema. A natureza, diversidade e perigosidade dos resíduos hospitalares (RH) exige procedimentos específicos na sua gestão. A sua produção depende do número de unidades de prestação de cuidados de saúde (upcs), tipo de cuidados prestados, número de doentes observados, práticas dos profissionais e dos órgãos de gestão das upcs, inovação tecnológica, entre outros. A gestão integrada de RH tem evoluído qualitativamente nos últimos anos. Existe uma carência de informação sobre os quantitativos de RH produzidos nas upcs e na prestação de cuidados domiciliários, em Portugal. Por outro lado, os Serviços de Saúde Pública, abrangendo o poder de Autoridade de Saúde, intervêm na gestão do risco para a saúde e o ambiente associado à produção de RH, necessitando de indicadores para a sua monitorização. O quadro legal de um país nesta matéria estabelece a estratégia de gestão destes resíduos, a qual é condicionada pela classificação e definição de RH por si adoptadas. Objectivos e Metodologias. O presente estudo pretende: quantificar a produção de RH resultantes da prestação de cuidados de saúde, em seres humanos e animais nas upcs, do sistema público e privado, desenvolvendo um estudo longitudinal, onde se quantifica esta produção nos Hospitais, Centros de Saúde, Clínicas Médicas e Dentárias, Lares para Idosos, Postos Médicos de Empresas, Centros de Hemodiálise e Clínicas Veterinárias do Concelho da Amadora, e se compara esta produção em dois anos consecutivos; analisar as consequências do exercício do poder de Autoridade de Saúde na gestão integrada de RH pelas upcs; quantificar a produção média de RH, por acto prestado, nos cuidados domiciliários e, com um estudo analítico transversal, relacionar essa produção média com as características dos doentes e dos tratamentos efectuados; proceder à análise comparativa das definições e classificações de RH em países da União Europeia, através de um estudo de revisão da legislação nesta matéria em quatro países, incluindo Portugal. Resultados e Conclusões. Obtém-se a produção média de RH, por Grupos I+II, III e IV: nos Hospitais, por cama.dia, considerando a taxa de ocupação; por consulta, nos Centros de Saúde, Clínicas Médicas e Dentárias e Postos Médicos de Empresas; por cama.ano, nos Lares para Idosos, considerando a sua taxa de ocupação; e por ano, nas Clínicas de Hemodiálise e Veterinárias. Verifica-se que a actuação da Autoridade de Saúde, produz nas upcs uma diferença estatisticamente significativa no aumento das contratualizações destas com os operadores de tratamento de RH. Quantifica-se o peso médio de resíduos dos Grupos III e IV produzido por acto prestado nos tratamentos domiciliários e relaciona-se esta variável dependente com as características dos doentes e dos tratamentos efectuados. Comparam-se os distintos critérios utilizados na elaboração das definições e classificações destes resíduos inscritas na legislação da Alemanha, Reino Unido, Espanha e Portugal. Recomendações. Apresentam-se linhas de investigação futura e propõe-se uma reflexão sobre eventuais alterações de aspectos específicos no quadro legal português e nos planos de gestão integrada de RH, em Portugal. ABSTRACT The problem: The nature, diversity and hazardousness of hospital wastes (HW) requires specific procedures in its management. Its production depends on the number and patterns of healthcare services, number of patients, professional and administration practices and technologic innovations, among others. Integrated management of HW has been developping, in the scope of quality, for the past few years. There is a lack of information about the amount of HW produced in healthcare units and in the domiciliary visits, in Portugal. On the other hand, the Public Health Services, embracing the Health Authority’s power, play a very important role in managing the risk of HW production to public and environmental health. They need to use some indicators in its monitorization. In a country, rules and regulations define hospital waste management policies, which are confined by the addopted classification and definition of HW. Goals and Methods: This research study aims to quantify the production of HW as a result of healthcare services in human beings and animals, public service and private one. Through a longitudinal study, this production is quantified in Hospitals, Health Centers, Medical and Dental Clinics, Residential Centers for old people, Companies Medical Centers and Veterinary and Haemodyalisis Clinics in Amadora’s Council, comparing this production in two consecutive years. This study also focus the consequences of the Health Authority’s role in the healthcare services integrated management of HW. The middle production of HW in the domiciliary treatments is also quantified and, with a transversal analytic study, its association with patients and treatments’ characteristics is enhanced. Finally, the definitions and classifications in the European Union Countries are compared through a study that revises this matter’s legislation in four countries, including Portugal. Results and Conclusions: We get the middle production of Groups I+II, III and IV: HW: in Hospitals, by bed.day, bearing the occupation rate; by consultation, in Health Centers, Medical and Dental Clinics and Companies Medical Centers; by bed.year in Residential Centers for old people, considering their occupation rate; by year, in Veterinary and Haemodyalisis Clinics. We verify that the Health Authority’s role produces a significative statistical difference in the rise of the contracts between healthcare services and HW operators. We quantify the Groups III and IV’s wastes middle weight, produced by each medical treatment in domiciliary visits and relate this dependent variable with patients and treatments’ characteristics. We compare the different criteria used in the making of definitions and classifications of these wastes registered in German, United Kingdom, Spain and Portugal’s laws. Recommendations: Lines of further investigation are explaned. We also tender a reflexion about potential changes in rules, in regulations and in the integrated plans for managing hospital wastes in Portugal. RÉSUMÉ Le Problème. La gestion des déchets d'activités hospitalières (DAH) et de soins de santé (DSS) exige des procédures spécifiques en raison de leur nature, diversité et dangerosité. Leur production dépend, parmi d’autres, du nombre d’unités de soins de santé (USS), du type de soins administrés, du nombre de malades observés, des pratiques des professionnels et des organes de gestion des USS, de l’innovation technologique. La gestion intégrée des DAH et des DSS subit une évolution qualitative dans les dernières années. Il existe un déficit d’information sur les quantitatifs de DAH et de DSS provenant des USS et de la prestation de soins domiciliaires, au Portugal. D’autre part les Services de Santé Publique, y compris le pouvoir de l’Autorité de Santé, qui interviennent dans la gestion du risque pour la santé et pour l’environnement associé à la production de DAH et de DSS, ont besoin d’indicateurs pour leur surveillance. Dans cette matière le cadre légal établit la stratégie de gestion de ces déchets, laquelle est conditionnée par la classification et par la définition des DAH et des DSS adoptées par le pays. Objectifs et Méthodologie. Cet étude prétend: quantifier la production de DAH et de DSS provenant de la prestation de soins de santé, en êtres humains et animaux dans les USS du système public et privé. À travers un étude longitudinal, on quantifie cette production dans les Hôpitaux, Centres de Santé, Cliniques Médicales et Dentaires, Maisons de Repos pour personnes âgées, Cabinets Médicaux d’ Entreprises, Centres d’Hémodialyse et Cliniques Vétérinaires du municipe d’ Amadora, en comparant cette production en deux ans consécutifs; analyser les conséquences de l’exercice du pouvoir de l’Autorité de Santé dans la gestion intégrée des DAH et des DSS par les USS; quantifier la production moyenne de DAH et de DSS dans la prestation de soins domiciliaires et, avec un étude analytique transversal, rapporter cette production moyenne avec les caractéristiques des malades et des soins administrés; procéder à l’ analyse comparative des définitions et classifications des DAH et des DSS dans des pays de l’Union Européenne, à travers un étude de révision de la législation relative à cette matière dans quatre pays, Portugal y compris. Résultats et Conclusions. On obtient la production moyenne de DAH et des DSS, par Classes I+II, III et IV: dans les hôpitaux, par lit.jour, en considérant le taux d’occupation; par consultation, dans les Centres de Santé, Cliniques Médicales et Dentaires et Cabinets Médicaux d’ Entreprises par lit.an dans les Maisons de Repos pour personnes âgées en considérant le taux d’occupation; et par an, dans les Cliniques d’Hémodialyse et Vétérinaires. On constate que l’actuation de l’Autorité de Santé produit dans les USS une différence statistiquement significative dans l’accroissement de leurs contractualisations avec les opérateurs de traitement de DAH et de DSS. On quantifie le poids moyen des déchets des Classes III et IV produit par acte de prestation de soins à domicile et on rapporte cette variable dépendante avec les caractéristiques des malades et des soins administrés. On compare les différents critères utilisés dans l’élaboration des définitions et des classifications de ces déchets inscrites dans la légis
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.
Resumo:
L’introduction éventuelle, au Québec, de la force exécutoire pour les actes notariés soulève, du point de vue économique, deux questions. La première porte sur les effets prévisibles de cette mesure, notamment sur le marché des services juridiques de rédaction d’actes. Du côté de l’offre, il convient de distinguer selon que l’acte notarié est obligatoire ou facultatif. Du côté de la demande, le changement tendrait à diminuer le coût de réalisation d’un droit. Le gain qui en résulte peut profiter, en partie, aux notaires. L’ampleur de l’effet dépend de la probabilité qu’il faille recourir à l’exécution forcée. L’effet irait dans le sens de réduire le coût du crédit et d’augmenter sa disponibilité. Pour le débiteur, l’engagement deviendrait plus risqué, mais du même coup, lui permettrait de signaler sa « crédibilité ». Les chiffres fournis dans une étude réalisée par le groupe Secor en 1995 font voir une économie plutôt modeste de ces mesures. Pour évaluer l’ampleur du désengorgement prévisible des tribunaux, il faudrait connaître l’importance des procédures essentiellement engagées pour la perception de créances. Au-delà des effets immédiats, les enjeux de cette mesure sont de deux ordres. D’abord, ils soulèvent la question de la justification d’accorder l’avantage comparatif de la force exécutoire aux actes notariés et à eux seuls. Cette question nous conduit à celle du statut d’officier public des notaires, plus précisément aux caractéristiques qui doivent être jugées essentielles pour ce statut. Car si l’on ne peut prêter au notaire une aussi grande confiance qu’au juge, il convient de s’interroger, aux fins de l’exécution forcée, sur les limites à imposer au contenu des actes ayant force exécutoire. Les réponses à ces questions présupposent des données qu’on peut difficilement obtenir autrement que par l’expérience prudente. Les chiffres disponibles permettent de prévoir des économies modestes. L’introduction de la force exécutoire doit s’accompagner de mesures de stricte surveillance, notamment en matière de conflits d’intérêt potentiels.
Resumo:
Cette recherche a pour objet l'étude de la dynamique de transformation du métier d'ingénieur dans le contexte algérien saisi à travers le rapport au travail. Elle repose sur une approche théorique s'inspirant d'une sociologie des groupes professionnels avec une démarche alliant méthodes quantitatives et qualitatives. Prenant appui sur des données recueillies à l'aide d'un questionnaire et d'entretiens approfondis menés dans Sonatrach, la plus grande entreprise d'Algérie, notre étude s'est attachée à faire ressortir les facteurs qui agissent au niveau individuel, organisationnel et sociétal sur les pratiques professionnelles pour deux générations d'ingénieurs. La première a eu pour mission de bâtir le pays à travers les grands projets de développement qui ont caractérisé la période après l'indépendance. La deuxième est arrivée sur le marché de l'emploi, à la fin des années 80, dans un contexte de crise et a payé un lourd tribut à la détérioration de la conjoncture économique. Les pratiques professionnelles se construisent tout d'abord dans le travail, mais aussi dans l'exercice des activités quotidiennes, les relations avec les autres et enfin la satisfaction à l'égard du travail. Tels ont été les points focaux de notre démarche d'explicitation du rapport au travail chez nos ingénieurs. Nous avons mis en lumière l'effet de la position hiérarchique au sein de l'organisation et des types de fonction. La satisfaction tient de la fierté d'appartenir à une entreprise prestigieuse. Chez les jeunes, elle s'exprime aussi dans les avantages matériels et une vision du métier fondée sur la maîtrise technique. Les plus âgés, encore marqués par l'idéologie nationaliste, mettent l'accent sur la participation à l'édification du pays, mais aussi sur la réalisation de soi et la fidélité à l'entreprise. Le rapport au travail s'élabore également au fil du temps dans son cheminement professionnel. Nous l'avons abordé, dans une deuxième étape, en documentant les processus d'intégration et de mobilité au sein de l'entreprise. Les trajectoires professionnelles sont régies par des politiques et des procédures de gestion qui en définissent les modalités, mais elles obéissent également à des opportunités et à des pratiques informelles qui jouent un rôle tout aussi important dans la détermination des profils de carrière. Enfin, le rapport au travail est tributaire de facteurs qui dépassent le cadre de l'entreprise. Dans une troisième étape, nous avons analysé les transformations du système éducatif et leur impact sur la certification des ingénieurs, la crise économique et ses effets en termes de chômage et de précarité et enfin la montée du discours religieux et ses manifestations chez les ingénieurs. Ces facteurs liés au contexte sociétal modifient les représentations et modèlent les attitudes et comportements au travail et à l'égard de celui-ci. Comme le montre notre recherche, le rapport au travail articule, dans une composition complexe, parcours individuels et histoires collectives vécus dans des environnements en évolution. La pratique d'un métier se trouve liée aux différents contextes de socialisation qui traversent les individus. Elle se situe, dans le cas algérien, au croisement d'une formation scientifique et technique qui montre peu de réactivité aux besoins mouvants de l'opérateur économique qu'elle est censée satisfaire, d'une entreprise bureaucratique dans son organisation et dans son fonctionnement où le contournement des règles peut s'ériger en principes de gestion et enfin d'un contexte sociétal qui oscille entre modernité et tradition. Cette dernière est réinterprétée de manière orthodoxe par les mouvements religieux en action dans la société. Ainsi, les ingénieurs investis initialement d'une mission de développement et considérés alors comme "vecteur de modernité" connaissent une détérioration de leur statut et la crise touche la profession vécue cependant différemment selon les générations.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise, option droit des affaires"
Resumo:
La faillite internationale est une matière complexe qui a donné lieu à un long et vif débat doctrinal entre les tenants des systèmes de la territorialité et de l'universalité. Une faillite est internationale lorsqu'elle met en présence un débiteur possédant des biens ou des créanciers dans plus d'un pays. Puisque la matière de faillite est souvent très différente d'un pays à l'autre, l'application du système de la pluralité, retenue dans la plupart des pays, soulève plusieurs problèmes particulièrement en ce qui concerne la coordination entre les diverses faillites et le manque de protection des créanciers, notamment parce qu'elle accorde des effets limités à la reconnaissance des procédures de faillite étrangères. En effet, en présence de procédures de faillite concurrentes il s'agit de répondre aux questions suivantes: quelle est la juridiction compétente pour ouvrir et organiser la faillite? Quelle est la loi applicable? Dans quels États cette faillite va-t-elle produire des effets? Dans le présent mémoire, il s'agit d'établir une comparaison entre le système canadien et le système européen en matière de faillite internationale. Le législateur canadien a récemment envisagé de modifier sa législation sur la faillite pour permettre une meilleure coopération internationale en matière de faillite internationale. Le projet canadien C-55 reprend pour l'essentiel les dispositions contenues dans la loi-type de la commission des Nations-Unis pour le droit commercial international (CNUDCI) sur «l'insolvabilité internationale». Ainsi, il permet de faciliter réellement la reconnaissance des décisions de faillite étrangères, il accorde une plus grande portée aux effets de cette reconnaissance et il prévoit une coordination des procédures multiples en établissant une «hiérarchisation» des procédures de faillite relativement semblable au système européen. Cependant, le projet canadien atteint moins bien l'objectif d'universalité que le Règlement européen 1346/2000 au niveau du traitement égalitaire entre les créanciers locaux et les créanciers étrangers. Si la loi-type offre à tous les États une utilité pratique considérable pour les nombreux cas de coopération internationale, l'harmonisation de la faillite internationale dépendra de son adoption dans les différentes législations. Bien que plusieurs pays aient inséré ce modèle dans leur législation sur la faillite, il n'est pas encore possible, à l'heure actuelle, de parler d'un droit international de la faillite.
Resumo:
Les lésions de la moelle épinière ont un impact significatif sur la qualité de la vie car elles peuvent induire des déficits moteurs (paralysie) et sensoriels. Ces déficits évoluent dans le temps à mesure que le système nerveux central se réorganise, en impliquant des mécanismes physiologiques et neurochimiques encore mal connus. L'ampleur de ces déficits ainsi que le processus de réhabilitation dépendent fortement des voies anatomiques qui ont été altérées dans la moelle épinière. Il est donc crucial de pouvoir attester l'intégrité de la matière blanche après une lésion spinale et évaluer quantitativement l'état fonctionnel des neurones spinaux. Un grand intérêt de l'imagerie par résonance magnétique (IRM) est qu'elle permet d'imager de façon non invasive les propriétés fonctionnelles et anatomiques du système nerveux central. Le premier objectif de ce projet de thèse a été de développer l'IRM de diffusion afin d'évaluer l'intégrité des axones de la matière blanche après une lésion médullaire. Le deuxième objectif a été d'évaluer dans quelle mesure l'IRM fonctionnelle permet de mesurer l'activité des neurones de la moelle épinière. Bien que largement appliquées au cerveau, l'IRM de diffusion et l'IRM fonctionnelle de la moelle épinière sont plus problématiques. Les difficultés associées à l'IRM de la moelle épinière relèvent de sa fine géométrie (environ 1 cm de diamètre chez l'humain), de la présence de mouvements d'origine physiologique (cardiaques et respiratoires) et de la présence d'artefacts de susceptibilité magnétique induits par les inhomogénéités de champ, notamment au niveau des disques intervertébraux et des poumons. L'objectif principal de cette thèse a donc été de développer des méthodes permettant de contourner ces difficultés. Ce développement a notamment reposé sur l'optimisation des paramètres d'acquisition d'images anatomiques, d'images pondérées en diffusion et de données fonctionnelles chez le chat et chez l'humain sur un IRM à 3 Tesla. En outre, diverses stratégies ont été étudiées afin de corriger les distorsions d'images induites par les artefacts de susceptibilité magnétique, et une étude a été menée sur la sensibilité et la spécificité de l'IRM fonctionnelle de la moelle épinière. Les résultats de ces études démontrent la faisabilité d'acquérir des images pondérées en diffusion de haute qualité, et d'évaluer l'intégrité de voies spinales spécifiques après lésion complète et partielle. De plus, l'activité des neurones spinaux a pu être détectée par IRM fonctionnelle chez des chats anesthésiés. Bien qu'encourageants, ces résultats mettent en lumière la nécessité de développer davantage ces nouvelles techniques. L'existence d'un outil de neuroimagerie fiable et robuste, capable de confirmer les paramètres cliniques, permettrait d'améliorer le diagnostic et le pronostic chez les patients atteints de lésions médullaires. Un des enjeux majeurs serait de suivre et de valider l'effet de diverses stratégies thérapeutiques. De telles outils représentent un espoir immense pour nombre de personnes souffrant de traumatismes et de maladies neurodégénératives telles que les lésions de la moelle épinière, les tumeurs spinales, la sclérose en plaques et la sclérose latérale amyotrophique.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.