999 resultados para méthodes qualitatives
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
L’incertitude associée à une mesure a pour origine d’une part la variabilité environnementale et d’autre part l’ensemble du processus d’acquisition depuis le prélèvement jusqu’à la saisie de la donnée dans une base. L’estimation de l'ensemble de cette variabilité est un exercice complexe à réaliser dans le cadre d’un plan d’expérience. En revanche, les séries temporelles présentent la caractéristique d’intégrer toutes les variabilités et ainsi l’analyse de ces séries en terme de signal et bruit doit permettre de quantifier l’amplitude des incertitudes. Toutefois, les séries temporelles d’observation présentent un ensemble de caractéristiques les rendant difficiles à analyser. Les modèles linaires dynamiques constituent une approche adaptée à ces données particulières en faisant l’hypothèse de paramètres variables dans le temps. Ainsi, l’objet du présent travail consiste à estimer les variances liées au processus d’observation à l’aide de modèles linéaires dynamiques. Plus particulièrement, les mesures considérées sont la chlorophylle a et l’abondance phytoplanctonique aux lieux de surveillance REPHY « Arcachon-Bouée- 7 » et « Teychan bis ». Les résultats montrent que pour la chlorophylle a, la variabilité d’observation est responsable de l’ordre de 80 % de la variabilité totale. Pour l’abondance phytoplanctonique, elle est également de 80 % à « Arcachon-Bouée 7 » mais de l’ordre de 70 % à « Teychan bis ». Ainsi la part de « bruit » est liée au lieu et au paramètre considéré. Exprimée en pourcentage de la médiane de la chlorophylle a, la variance d’observation place les bornes de l’intervalle de confiance à 95 % des observations à des valeurs de l’ordre de -40 % et +120 % de la médiane, l’intervalle étant sous estimé car ne prenant pas en compte la variabilité structurelle. Pour l’abondance phytoplanctonique en log10 cell./L, les ordres de grandeur correspondant en pourcentage de la moyenne sont de ± 13.5 %. Pour les deux paramètres, ces valeurs sont compatibles avec l’expérience des experts. Ainsi, l’approche mise en oeuvre s’est avérée riche d’enseignements en matière d’incertitude de mesure et les nombreuses améliorations méthodologiques envisagées ouvrent des perspectives fécondes à tout point de vue.
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.
Resumo:
En raison du virage semi-autoritaire de l’État russe au début des années 2000, l’adaptation aux mesures contraignantes de l’État, qu’elle soit consciente ou inconsciente, constitue un aspect fondamental du quotidien des ONG de défense des droits de l’homme russes. Cependant, il s’agit d’une question jusqu’ici négligée dans la littérature scientifique. Ainsi, ce mémoire a pour objet d’examiner la démarche d’adaptation d’une ONG particulièrement active sur la scène russe, le Centre des droits de l’homme Memorial, entre 1999 et 2014. La recherche révèle que cette ONG emploie deux méthodes afin de s’adapter aux mesures étatiques et que celles-ci sont, en fait, des principes d’action adoptés par l’organisation au moment de sa création. Le premier principe d’action s’appuie sur la coopération et la solidarité développées par le Centre des droits de l’homme Memorial avec d’autres ONG russes, des ONG internationales et des organisations internationales. En partenariat avec ces organisations, le Centre des droits de l’homme Memorial élabore des activités de recherche et de plaidoyer et mène des missions de surveillance des droits de l’homme. Ce principe d’action renforce considérablement la capacité d’adaptation de l’ONG et favorise l’exercice de son rôle de contrepouvoir. Le second principe d’action se fonde sur la recherche de collaboration constructive avec l’État. Lors d’interactions ponctuelles avec les autorités, l’organisation exerce un rôle d’expert en matière de droits de l’homme et tente de réduire les entraves posées à la société civile. Outre sa propriété adaptative, cette méthode d’adaptation combine deux fonctions inhérentes à la société civile, soit la représentation des intérêts des citoyens auprès des instances étatiques et l’établissement d’un partenariat avec l’État dans le but d’amener ce dernier à adopter des pratiques démocratiques. Ce mémoire montre la capacité du Centre des droits de l’homme Memorial à se mouvoir d’une méthode d’adaptation à l’autre afin de maximiser son action.
Resumo:
Méthodologie: Équation de Bellman (Programmation dynamique) ; Méthode de la valeur optionnelle
Resumo:
Les élèves faibles en mathématiques utilisent des méthodes de travail inefficaces parce qu'ils n'en connaissent pas d'autres et parce qu'ils manquent de support et d'encadrement lorsqu'ils se retrouvent seuls pour étudier. Ces méthodes de travail inadéquates ont des conséquences néfastes sur leur performance en mathématiques: leur étude étant inefficace, ils persistent moins, arrivent moins bien préparés aux examens et développent des attitudes qui nuisent à leur apprentissage en mathématiques. Le but de cette recherche est de mesurer l'effet de l'enseignement de stratégies cognitives et métacognitives supporté par un encadrement de l'étude individuelle sur les attitudes des élèves faibles et sur leurs comportements lors de l'étude en mathématique. Cet effet devrait entraîner aussi une amélioration du rendement scolaire. L'expérimentation s'est déroulée à l'automne 1989 auprès d'élèves inscrits en mathématiques d'appoint au niveau collégial. On enseigna une méthode de travail plus adéquate, composée de stratégies cognitives et métacognitives variées et adaptées aux tâches demandées dans les devoirs de mathématiques. De plus, dans le groupe expérimental, cet enseignement fut soutenu par des consignes à l'intérieur des devoirs de mathématiques; ces consignes, de moins en moins nombreuses et explicites, devaient assurer que l'élève utilise vraiment les stratégies enseignées. Au terme de l'expérimentation, on a mesuré que les élèves du groupe expérimental n'utilisent pas plus les stratégies enseignées que les élèves du groupe contrôle. On a aussi mesuré la corrélation entre l'utilisation des stratégies enseignées d'une part, et les attitudes, les comportements lors de l'étude et le rendement scolaire d'autre part. On constate que la force de ce lien a tendance à augmenter avec le temps. Même si les résultats ne permettent pas de confirmer l'hypothèse principale, il apparaît que les élèves les plus faibles semblent avoir profité davantage de l'encadrement de leur étude personnelle. De plus, et cela pour l'ensemble des sujets, l'évolution de la corrélation entre l'utilisation des stratégies enseignées et diverses variables reliées à l'apprentissage des mathématiques suggère de poursuivre de telles interventions sur une plus longue période de temps.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
A cor é um atributo perceptual que nos permite identificar e localizar padrões ambientais de mesmo brilho e constitui uma dimensão adicional na identificação de objetos, além da detecção de inúmeros outros atributos dos objetos em sua relação com a cena visual, como luminância, contraste, forma, movimento, textura, profundidade. Decorre daí a sua importância fundamental nas atividades desempenhadas pelos animais e pelos seres humanos em sua interação com o ambiente. A psicofísica visual preocupa-se com o estudo quantitativo da relação entre eventos físicos de estimulação sensorial e a resposta comportamental resultante desta estimulação, fornecendo dessa maneira meios de avaliar aspectos da visão humana, como a visão de cores. Este artigo tem o objetivo de mostrar diversas técnicas eficientes na avaliação da visão cromática humana através de métodos psicofísicos adaptativos.
Resumo:
Mestrado, Educação Pré-Escolar e Ensino do 1º Ciclo do Ensino Básico, 1 de Julho 2013, Universidade dos Açores (Relatório de Estágio).
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação do Mestre Alberto Couto.
Resumo:
Pesquisas realizadas recentemente salientam o papel desempenhado pelas emoções no cerne dos processos cognitivos e, em particular, na criatividade, entendendo esta não como uma faculdade mas como um processo complexo e dinâmico, dependente de vários fatores intrínsecos e extrínsecos ao sujeito. Paralelamente, a abordagem pedagógica no domínio das artes modificou-se consideravelmente desde os anos 80, desviando a atenção da produção para o processo de conhecimento e o seu conteúdo. Essa alteração levou a uma mudança de paradigma: em vez de se introduzir cegamente os alunos nos detalhes e métodos da produção artística, isolando estes do seu contexto social, procura-se agora despertar neles o olhar estético. Como em Duchamp, tenta-se alcançar uma viragem qualitiva, do objeto para o contexto.
Resumo:
Dissertação de Mestrado, Engenharia Zootécnica, 14 de Maio de 2015, Universidade dos Açores.
Resumo:
Um dos temas mais debatidos na sociedade actual é a segurança. Os níveis de segurança e as ferramentas para os alcançar entram em contraponto com os métodos usados para os quebrar. Como no passado, a razão qualidade/serviço mantém-se hoje, e manter-se-á no futuro, assegurando maior segurança àqueles que melhor se protejam. Problemas simples da vida real como furtos ou uso de falsa identidade assumem no meio informático uma forma rápida e por vezes indetectável de crime organizado. Neste estudo são investigados métodos sociais e aplicações informáticas comuns para quebrar a segurança de um sistema informático genérico. Desta forma, e havendo um entendimento sobre o Modus Operandi das entidades mal-intencionadas, poderá comprovar-se a instabilidade e insegurança de um sistema informático, e, posteriormente, actuar sobre o mesmo de tal forma que fique colocado numa posição da segurança que, podendo não ser infalível, poderá estar muito melhorada. Um dos objectivos fulcrais deste trabalho é conseguir implementar e configurar um sistema completo através de um estudo de soluções de mercado, gratuitas ou comerciais, a nível da implementação de um sistema em rede com todos os serviços comuns instalados, i.e., um pacote “chave na mão” com serviços de máquinas, sistema operativo, aplicações, funcionamento em rede com serviços de correio electrónico, gestão empresarial, anti-vírus, firewall, entre outros. Será possível então evidenciar uma instância de um sistema funcional, seguro e com os serviços necessários a um sistema actual, sem recurso a terceiros, e sujeito a um conjunto de testes que contribuem para o reforço da segurança.