200 resultados para Spécification formelle
Resumo:
Welsch (Projektbearbeiter): Gefordert werden: ein gesamtdeutsches Außenministerium, ein einheitliches Heer sowie eine Kriegsmarine, volle Bürgerrechte, ein Bundesgericht, Zollunion, Reichspost, eine einheitliche Wirtschafts- und Verkehrspolitik sowie einheitliche Währung, Maße und Gewichte
Resumo:
Mode of access: Internet.
Resumo:
La majorité des écrits scientifiques concernant la demande d’aide chez les hommes fait état de l’importance des proches dans la demande d’aide, puisqu’une majorité d’hommes aurait de la difficulté à consulter sans le soutien de leurs proches, qui font souvent office de référents lors de la demande d’aide. Par contre, il semble y avoir peu d’information disponible concernant la manière avec laquelle les proches arrivent à influencer l’homme à demander de l’aide et sur la nature des interactions entre le proche et la personne aidée. Devant ce constat, cette recherche qualitative a pour objectif d’approfondir le point de vue des proches dans le processus de demande d’aide chez les hommes. Il s’agit d’une étude exploratoire dans laquelle huit personnes ayant influencé un homme de leur entourage à consulter un professionnel ont été rencontrées dans le cadre d’entretiens semi-dirigés. Les résultats révèlent que le proche intervient souvent peu après l’apparition des premiers signaux de détresse chez l’homme de son entourage, étant particulièrement sensible aux changements dans l’humeur de l’homme ainsi qu’au risque suicidaire. Ils tentent alors d’utiliser les moyens à leur disposition – les ressources informelles - jusqu’à ce que cela ne fonctionne plus. Les proches se tournent alors vers des ressources formelles et ce sont eux, la plupart du temps, qui transmettent l’information à l’homme quant à la nature des services professionnels disponibles. Les membres du réseau social sont également très actifs tout au long du processus de demande d’aide, utilisant plusieurs types de soutien social afin d’amener l’homme à modifier ses comportements problématiques sous forme d’échange de ressources instrumentales, de ressources émotionnelles et d’information. Les proches semblent également adapter leurs interventions aux besoins de l’homme, privilégiant des interventions axées davantage sur le maintien du lien de confiance au début du processus de changement, en intégrant progressivement des interventions plus informatives, pour finalement y aller de démarches instrumentales, peu avant la demande d’aide formelle. L’influence des proches est également présente après la demande d’aide afin de maintenir la motivation de l’homme à l’égard de l’intervention. Les entrevues menées auprès des proches mettent également en lumière un autre constat, soit que la demande d’aide peut amener une certaine détresse chez la personne aidante en étant témoin de la souffrance d’une personne de son entourage. De soutenir un homme dans ce processus peut amener le proche à ressentir un sentiment d’impuissance et s’accompagne d’une responsabilité importante quant au bien-être et à la sécurité de ce dernier. Cela fait en sorte que plusieurs répondants ressentent le besoin d’obtenir de l’aide durant ou après le processus de demande d’aide, que ce soit auprès de professionnels de la santé ou de membres de leur réseau informel. Somme toute, bien que cela constitue une expérience éprouvante, plusieurs répondants vivent toutefois positivement le fait de venir en aide à un homme de leur entourage.
Resumo:
La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.
Resumo:
Il est bien connu que littérature et musique entretiennent des liens étroits. Cependant, leur étude n'est pas chose aisée, notamment en raison de l'absence d'un consensus théorique. Notre but est d'étudier l'un des aspects de ces liens, à savoir les mises en musique de poèmes. Ce mémoire comprend deux volets. Le premier, à visée encyclopédique, tente de fournir un catalogue le plus exhaustif possible des mises en musique de « L'Invitation au voyage », avec toutes les informations philologiques nécessaires à de futures utilisations. Le second volet, à visée analytique, cherche à mettre en évidence les caractéristiques d'une œuvre poético-musicale, tant dans son élaboration que dans sa réception ou sa structure interne. Pour ce faire, nous faisons appel à des théories issues de plusieurs disciplines, telles que l'histoire littéraire et musicale, la linguistique, la sémiologie, la poétique, l'analyse musicale et les sciences cognitives. Parmi nos constatations, il ressort que les œuvres poético-musicales, si elles possèdent des points communs non négligeables avec les œuvres poétiques et les œuvres musicales pures, ne sauraient néanmoins être amalgamées avec celles-ci, et nécessitent dès lors un traitement tout à fait particulier.
Resumo:
O objetivo da dissertação é fazer uma análise do materialismo presente nas duas vias do pensamento de Gaston Bachelard, a epistemológica, e a poética. Vamos partir da hipótese de que a noção bachelardiana de materialismo surge na poética dos elementos cósmicos sendo depois desenvolvida e aprofundada na vertente epistemológica, principalmente na obra O materialismo racional. O desenvolvimento do trabalho tornará evidente a distinção bachelardiana entre a imaginação material e a imaginação formal, e a crítica que Bachelard faz à perspectiva substancialista dos elementos apresentada por certos autores. A análise da vertente epistemológica vai se voltar para a química do século XX a fim de mostrar que esta supera o substancialismo, inerente às teorias químicas antecedentes. A conclusão tornará evidente a conceitualização da matéria enquanto resistência, ressaltando a crítica que Bachelard faz ao vício da ocularidade.
Resumo:
O combate ao excessivo rebuscamento da linguagem e a defesa de uma sintaxe mais reveladora dos fatos gramaticais da fala brasileira começaram a ganhar vulto a partir do Romantismo. No entanto, o movimento modernista revigorou essa tendência, estreitando a aproximação entre fala e escrita. Mesmo antes do advento do Modernismo, Manuel Bandeira já privilegiava uma escrita mais leve e simples, próxima da língua realmente em uso pelos falantes brasileiros. Embora tivesse recebido uma formação acadêmica clássica, Manuel Bandeira mostrou-se fiel defensor de uma escrita literária efetivamente simples, com características próprias da oralidade e que registrasse as variações da língua em função das diferentes situações comunicativas. Além disso, sempre repudiou certas exigências da tradição gramatical que não correspondiam à realidade linguística do Brasil. Este trabalho pretende levantar algumas questões relacionadas à variação linguística e à história da língua portuguesa, especialmente na variedade brasileira. Também objetiva tratar de certos aspectos referentes à norma linguística, apresentando breves comentários sobre o papel da literatura na afirmação da identidade brasileira. Esta pesquisa apresenta alguns comentários do poeta sobre questões relacionadas ao emprego do registro coloquial, da norma padrão e da valorização de uma linguagem mais simples e popular. Além disso, faz um levantamento de certos exemplos que corroboram a proposta defendida neste trabalho sobre a intenção de Manuel Bandeira de demonstrar fatos correspondentes aos verdadeiros usos linguísticos dos falantes brasileiros, no que se refere à presença marcante da oralidade na escrita, a determinadas escolhas lexicais e a estruturas sintáticas características da língua portuguesa do Brasil
Resumo:
Esta tese se propõe a explorar as possibilidades de lidar com o trabalho enquanto atividade, compreendendo-o, a partir da perspectiva ergológica (SCHWARTZ, 2000), portando um paradoxo ou um tipo de dialética entre o Registro 1 das normas antecedentes que marcam fortemente a antecipação desse trabalho; e o Registro 2 das dimensões singulares do encontro de encontros, que se produz em todo trabalhar. A partir da permanente dialética entre esses dois registros, a perspectiva ergológica vai buscar métodos que sejam capazes de dar visibilidade à dimensão gestionária que atravessa todo trabalhar, para que os protagonistas da atividade possam se apropriar de sua atividade, individual e coletivamente, ampliando seus níveis de autonomia frente ao trabalho e à vida. O termo ergo(trans)formação afirma uma prática de pesquisa-intervenção que se propõe transformadora da realidade, apostando numa intervenção micropolítica no seio da experiência social, conforme Rocha e Aguiar (2003). Este modo de compreensão de pesquisa e de afirmação da produção coletiva do conhecimento pauta-se numa abordagem construtivista onde conhecer não é representar uma realidade pré-existente, mas é um processo de invenção de si e do mundo (KASTRUP, 1999), em um acoplamento direto com a matéria. Enfrentamos o seguinte problema: o trabalho pode ser pensado como invenção de si e do mundo, entrando em curto-circuitagem com as formas de produzir em conformidade com organização formal do trabalho, afirmando o primado do agir próprio do trabalhador como atividade, frente ao acontecimental do trabalho? Para dar conta deste problema, propomos desenvolver uma cartografia, enquanto método de análise da atividade de trabalho, que possibilite acompanhar a curto-circuitagem entre as formas de produzir em conformidade com organização do trabalho e o agir próprio do trabalhador. São apresentadas duas experimentações de ergo(trans)formação desenvolvidas em dois territórios distintos dos mundos do trabalho: o desenvolvimento de uma Oficina de Vendas e a formação de educadores internos, em empresa financeira pública e a possibilidade de formação educacional e profissional de jovens com transtorno mental grave em uma rede de restaurantes que se desdobra na cartografia do trabalho coletivo e do coletivo de trabalho, tendo um jovem portador de síndrome de Down como protagonista da atividade. As escolhas metodológicas se fizeram em duas perspectivas distintas e complementares: (1) o método cartográfico elaborado a partir de Deleuze e Guattari (1995), Guattari e Rolnik (1986), assim como Passos, Kastrup e Escóssia (2009); e (2) o que propõe Schwartz (1999), o Dispositivo Dinâmico de Três Polos (DD3P), incorporando a reformulação conceitual proposta por Athayde e Brito (2003) denominada Comunidade Ampliada de Pesquisa. Como conclusão, refletimos se é possível pensar a atividade inventiva de trabalho, a partir das experimentações de ergo(trans)formação que apresentamos, considerando suas condições e efeitos e, mesmo, se podemos nomeá-las assim, levando-se em conta as diferenças de atividades envolvidas. Estas experimentações nos impuseram pensar o trabalho (enquanto atividade) em sua indissociabilidade com a formação humana e com a produção de subjetividade
Resumo:
Relatório da Prática de Ensino Supervisionada, Mestrado em Ensino de História e de Geografia no 3º Ciclo do Ensino Básico e Ensino Secundário, Universidade de Lisboa, 2011
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
This paper analyzes the dynamics of wages and workers' mobility within firms with a hierarchical structure of job levels. The theoretical model proposed by Gibbons and Waldman (1999), that combines the notions of human capital accumulation, job rank assignments based on comparative advantage and learning about workers' abilities, is implemented empirically to measure the importance of these elements in explaining the wage policy of firms. Survey data from the GSOEP (German Socio-Economic Panel) are used to draw conclusions on the common features characterizing the wage policy of firms from a large sample of firms. The GSOEP survey also provides information on the worker's rank within his firm which is usually not available in other surveys. The results are consistent with non-random selection of workers onto the rungs of a job ladder. There is no direct evidence of learning about workers' unobserved abilities but the analysis reveals that unmeasured ability is an important factor driving wage dynamics. Finally, job rank effects remain significant even after controlling for measured and unmeasured characteristics.
Resumo:
This article studies mobility patterns of German workers in light of a model of sector-specific human capital. Furthermore, I employ and describe little-used data on continuous on-the-job training occurring after apprenticeships. Results are presented describing the incidence and duration of continuous training. Continuous training is quite common, despite the high incidence of apprenticeships which precedes this part of a worker's career. Most previous studies have only distinguished between firm-specific and general human capital, usually concluding that training was general. Inconsistent with those conclusions, I show that German men are more likely to find a job within the same sector if they have received continuous training in that sector. These results are similar to those obtained for young U.S. workers, and suggest that sector-specific capital is an important feature of very different labor markets. In addition, they suggest that the observed effect of training on mobility is sensible to the state of the business cycle, indicating a more complex interaction between supply and demand that most theoretical models allow for.