431 resultados para STL-Modelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hintergrund: Helicobacter pylori (H. pylori) zählt trotz abnehmender Inzidenz zu den häufigsten bakteriellen Infektionskrankheiten des Menschen. Die Infektion mit H. pylori ist ein Risikofaktor für Krankheiten wie gastroduodenale Geschwüre, Magenkarzinomen und MALT (Mucosa Associated Lymphoid Tissue)-Lymphomen. Zur Diagnostik von H. pylori stehen verschiedene invasive und nichtinvasive Verfahren zur Verfügung. Der 13C-Harnstoff-Atemtest wird zur Kontrolle einer Eradikationstherapie empfohlen, kommt in der Primärdiagnostik von H. pylori derzeit jedoch nicht standardmäßig in Deutschland zum Einsatz. Fragestellung: Welchen medizinischen und gesundheitsökonomischen Nutzen hat die Untersuchung auf H. pylori-Besiedlung mittels 13C-Harnstoff-Atemtest in der Primärdiagnostik im Vergleich zu invasiven und nichtinvasiven diagnostischen Verfahren? Methodik: Basierend auf einer systematischen Literaturrecherche in Verbindung mit einer Handsuche werden Studien zur Testgüte und Kosten-Effektivität des 13C-Harnstoff-Atemtests im Vergleich zu anderen diagnostischen Verfahren zum primären Nachweis von H. pylori identifiziert. Es werden nur medizinische Studien eingeschlossen, die den 13C-Harnstoff-Atemtest direkt mit anderen H. pylori-Testverfahren vergleichen. Goldstandard ist eines oder eine Kombination der biopsiebasierten Testverfahren. Für die gesundheitsökonomische Beurteilung werden nur vollständige gesundheitsökonomische Evaluationsstudien einbezogen, bei denen die Kosten-Effektivität des 13C Harnstoff-Atemtests direkt mit anderen H. pylori-Testverfahren verglichen wird. Ergebnisse: Es werden 30 medizinische Studien für den vorliegenden Bericht eingeschlossen. Im Vergleich zum Immunglobulin G (IgG)-Test ist die Sensitivität des 13C-Harnstoff-Atemtests zwölfmal höher, sechsmal niedriger und einmal gleich, und die Spezifität 13-mal höher, dreimal niedriger und zweimal gleich. Im Vergleich zum Stuhl-Antigen-Test ist die Sensitivität des 13C-Harnstoff-Atemtests neunmal höher, dreimal niedriger und einmal gleich, und die Spezifität neunmal höher, zweimal niedriger und zweimal gleich. Im Vergleich zum Urease-Schnelltest sind die Sensitivität des 13C-Harnstoff-Atemtests viermal höher, dreimal niedriger und viermal gleich und die Spezifität fünfmal höher, fünfmal niedriger und einmal gleich. Im Vergleich mit der Histologie ist die Sensitivität des 13C-Harnstoff-Atemtests einmal höher und zweimal niedriger und die Spezifität zweimal höher und einmal niedriger. In je einem Vergleich zeigt sich kein Unterschied zwischen 13C-Harnstoff-Atemtest und 14C-Harnstoff-Atemtest, sowie eine niedrigere Sensitivität und höhere Spezifität im Vergleich zur Polymerase-Kettenreaktion (PCR). Inwieweit die beschriebenen Unterschiede statistisch signifikant sind, wird in sechs der 30 Studien angegeben. Es werden neun gesundheitsökonomische Evaluationen in dem vorliegenden Bericht berücksichtigt. Die Test-and-Treat-Strategie mittels 13C-Harnstoff-Atemtest wird in sechs Studien mit einem Test-and-Treat-Verfahren auf Basis der Serologie sowie in drei Studien mit einem Test-and-Treat-Verfahren auf Basis des Stuhl-Antigen-Tests verglichen. Dabei ist das Atemtestverfahren dreimal kosteneffektiv gegenüber der serologischen Methode und wird von der Stuhl-Antigen-Test-Strategie einmal dominiert. Vier Studien beinhalten einen Vergleich der Test-and -Treat-Strategie auf Basis des 13C-Harnstoff-Atemtests mit einer empirischen antisekretorischen Therapie, wobei sich das Atemtesverfahren zweimal als kosteneffektive Prozedur erweist und zwei Studien einen Vergleich mit einer empirischen Eradikationstherapie. In fünf Studien wird das Test-and-Treat-Verfahren mittels 13C-Harnstoff-Atemtest einer endoskopiebasierten Strategie gegenübergestellt. Zweimal dominiert die Atemteststrategie die endoskopische Prozedur und einmal wird sie von dieser Strategie dominiert. Diskussion:Sowohl die medizinischen als auch die ökonomischen Studien weisen mehr oder minder gravierende Mängel auf und liefern heterogene Ergebnisse. So werden in der Mehrzahl der medizinischen Studien keine Angaben zur statistischen Signifikanz der berichteten Unterschiede zwischen den jeweiligen Testverfahren gemacht. Im direkten Vergleich weist der 13C-Harnstoff-Atemtest überwiegend eine höhere Testgüte als der IgG und der Stuhl-Antigen-Test auf. Aus den Vergleichen mit dem Urease-Schnelltest lassen sich keine Tendenzen bezüglich der Sensitivität ableiten, wohingegen die Spezifität des 13C-Harnstoff-Atemtests höher einzuschätzen ist. Für die Vergleiche des 13C-Harnstoff-Atemtest mit der Histologie, dem 14C-Harnstoff-Atemtest und der PCR liegen zu wenige Ergebnisse vor. In der eingeschlossenen ökonomischen Literatur deuten einige Studienergebnisse auf eine Kosten-Effektivität der Test-and-Treat-Strategie mittels 13C-Harnstoff-Atemtest gegenüber dem Test-and-Treat-Verfahren auf Basis der Serologie und der empirischen antiskretorischen Therapie hin. Um Tendenzen bezüglich der Kosten-Effektivität der Atemteststrategie gegenüber der Test-and-Treat-Strategie mittels Stuhl-Antigen-Test sowie der empirischen Eradikationstherapie abzuleiten, mangelt es an validen Ergebnissen bzw. ökonomischer Evidenz. Die Untersuchungsresultate hinsichtlich eines Vergleichs mit endoskopiebasierten Verfahren fallen diesbezüglich zu heterogen aus. Insgesamt kann keines der ökonomischen Modelle der Komplexität des Managements von Patienten mit dyspeptischen Beschwerden gänzlich gerecht werden. Schlussfolgerungen/Empfehlungen: Zusammenfassend ist festzuhalten, dass die Studienlage zur medizinischen und ökonomischen Beurteilung des 13C-Harnstoff-Atemtests im Vergleich zu anderen diagnostischen Methoden nicht ausreichend ist, um den Atemtest als primärdiagnostisches Standardverfahren im Rahmen einer Test-and-Treat-Strategie beim Management von Patienten mit dyspeptischen Beschwerden für die deutsche Versorgungslandschaft insbesondere vor dem Hintergrund der Leitlinien der Deutschen Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS) anstelle einer endoskopiebasierten Methode zu empfehlen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gestiegene Erwartungen an die pädagogische und organisationsbezogene Qualität elementarpädagogischer Einrichtungen stellen neue Anforderungen an Personal und Organisationen in diesem Bildungssegment. Im Rahmen einer durch die Robert Bosch Stiftung Stuttgart geförderten Expertentagung wurden auf der Grundlage eines Diskussionspapiers verschiedene Modelle einer Organisationsentwicklung im Elementarbereich vorgestellt und diskutiert. Hierbei wurde deutlich, dass bislang keine unabhängigen und etablierten Modelle existieren. Die Expertinnen konnten sich in Form von Impulsreferaten oder nachträglich eingereichten Statements in den Prozess einbringen. Die Publikation dokumentiert sowohl die Recherche als auch den Diskussionsprozess. Zudem sind die Statements der Expertinnen und Experten einbezogen. Ziel ist es, das Thema schrittweise weiter zu bearbeiten und zunächst Best Practice Beispiele auszumachen und gemeinsam mit der Praxis ein passendes Modell der Organisationsentwicklung zu erarbeiten. Die Ergebnisse sollen didaktisch so aufbereitet werden, dass Sie in Form von Fallstudien in die Aus- und Weiterbildung einfließen können. (DIPF/Autorinnen)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Es] wurden folgende Forschungsfragen entwickelt: (1) Welche Modelle aus den Bezugsdisziplinen der Umweltökonomie und Ökologischen Ökonomie haben hohe Bedeutung in den Fachwissenschaften und sind zugleich anschlussfähig an relevante erziehungswissenschaftliche Forschung sowie curriculare Vorgaben? Was sind Bestandteile dieser fachwissenschaftlichen Schlüsselmodelle, die für eine ökonomische Allgemeinbildung bedeutsam sind? (2) Welche unterschiedlichen Präkonzepte nutzen Studierende der ökonomischen Bildung, wenn sie mit typischen, allgemein verständlich formulierten Problemen aus der Fachwissenschaft konfrontiert werden? (3) Wie können die Erkenntnisse über die fachlichen Modelle und Präkonzepte zur Planung von Seminaren genutzt werden? … Der erste Teil der Arbeit beschäftigt sich mit der Auswahl und Aufarbeitung bedeutsamer Modelle aus den Wirtschaftswissenschaften … Dafür wird einleitend das der Arbeit zugrunde liegende Verständnis ökonomischer Bildung entwickelt … Anschließend werden erziehungswissenschaftliche Forschung sowie curriculare Vorgaben aufgearbeitet und zentrale Forschungsgebiete der Ökologischen Ökonomie und Umweltökonomie identifiziert. Auf dieser Grundlage werden zwei Schlüsselmodelle der relevanten Bezugsdisziplinen bestimmt, nämlich die ökonomische Bewertung und das Management von Ökosystemdienstleistungen (ÖSD) und umweltpolitische Instrumente. … In den Kapiteln 3 und 4 werden die beiden identifizierten Modelle inhaltlich entsprechend der Anforderungen des Literacy-Ansatzes detailliert aufgearbeitet. … Im zweiten Teil der Arbeit werden Präkonzepte, d. h. Vorstellungen, die bei Lernenden vor einem Bildungsprozess bestehen, zu Phänomenen erforscht, die anhand der beiden ausgewählten fachlichen Modelle (ökonomische Bewertung von ÖSD und umweltpolitische Instrumente) bearbeitet werden können. … Nach einer Beschreibung des phänomenographischen Forschungsansatzes werden die Untersuchungsgruppe, die Datenerhebung und -analyse beschrieben. … In den beiden anschließenden Kapiteln werden Lernendenvorstellungen analysiert, die in Beziehung zu den fachlichen Modellen stehen. In Kapitel 6 werden Vorstellungen der Lernenden zum Phänomen des Umgangs mit Ökosystemen, die auf unterschiedliche Weise genutzt werden können, beschrieben. Im Kapitel 7 geht es um das Phänomen der umweltpolitischen Maßnahmen und ihrer Bewertung. … Im Kapitel 8 werden Ergebnisse aus den vorherigen Kapiteln zusammengeführt und Vorschläge für die Gestaltung von Seminaren mit Studierenden der ökonomischen Bildung gemacht. Schließlich wird ein kurzer Ausblick auf weitere Forschungsmöglichkeiten gegeben. (DIPF/Orig.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A combined Short-Term Learning (STL) and Long-Term Learning (LTL) approach to solving mobile robot navigation problems is presented and tested in both real and simulated environments. The LTL consists of rapid simulations that use a Genetic Algorithm to derive diverse sets of behaviours. These sets are then transferred to an idiotypic Artificial Immune System (AIS), which forms the STL phase, and the system is said to be seeded. The combined LTL-STL approach is compared with using STL only, and with using a handdesigned controller. In addition, the STL phase is tested when the idiotypic mechanism is turned off. The results provide substantial evidence that the best option is the seeded idiotypic system, i.e. the architecture that merges LTL with an idiotypic AIS for the STL. They also show that structurally different environments can be used for the two phases without compromising transferability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-Task Transfer Learning (MTTL) is an efficient approach for learning from inter-related tasks with small sample size and imbalanced class distribution. Since the intensive care unit (ICU) data set (publicly available in Physionet) has subjects from four different ICU types, we hypothesizethat there is an underlying relatedness amongst various ICU types. Therefore, this study aims to explore MTTL model for in-hospital mortality prediction of ICU patients. We used singletask learning (STL) approach on the augmented data as well as individual ICU data and compared the performance with the proposed MTTL model. As a performance measurement metrics, we used sensitivity (Sens), positive predictivity (+Pred), and Score. MTTL with class balancing showed the best performance with score of 0.78, 0.73, o.52 and 0.63 for ICU type 1(Coronary care unit), 2 (Cardiac surgery unit), 3 (Medical ICU) and 4 (Surgical ICU) respectively. In contrast the maximum score obtained using STL approach was 0.40 for ICU type 1 & 2. These results indicates that the performance of in-hospital mortality can be improved using ICU type information and by balancing the ’non-survivor’ class. The findings of the study may be useful for quantifying the quality of ICU care, managing ICU resources and selecting appropriate interventions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’émergence du postmodernisme aux Etats-unis, mouvement esthétique rejetant les dogmes modernistes, date des années 1960. En s’imposant, durant les dernières décennies du 20ème siècle, comme le paradigme esthétique de l’architecture, des arts et de la littérature, le postmodernisme a également créé les conditions propres à une renaissance du roman historique. Cependant, la fiction historique postmoderne constitue maintenant une nouvelle forme du genre basée sur la parodie, l’ironie et le scepticisme envers les discours dominants. Cette nouvelle forme ne se limite plus à la présentation des récits dans un cadre historique réaliste. Elle remet plutôt en question la validité et par conséquent la nature même du discours historique, problématisant et mettant ainsi à l’avant le processus d’interprétation et de reconstruction du passé. Dans cette optique, la fiction historique contemporaine reflète les débats actuels sur les formes de l’historiographie, débats lancés par Hayden White. Dans les années 1980, la fiction historique a de nouveau fleuri dans l'espace culturel allemand tout comme ailleurs. Le présent mémoire analyse des formes postmodernes de la fiction historique en se basant sur trois romans historiques de langue allemande parus entre 1981 et 2005: Die Schrecken des Eises und der Finsternis de Christoph Ransmayr, Die Vermessung der Welt de Daniel Kehlmann et Marbot : Eine Biographie de Wolfgang Hildesheimer. L’analyse s'appuie sur divers modèles de la fiction postmoderne, en particulier sur le schéma de catégorisation du roman historique élaboré par Ansgar Nünning. Le mémoire montre dans quelle mesure ces romans appliquent des moyens stylistiques typiques pour le postmodernisme et portent un regard critique ou comique sur l’histoire et la culture allemande et autrichienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’émergence du postmodernisme aux Etats-unis, mouvement esthétique rejetant les dogmes modernistes, date des années 1960. En s’imposant, durant les dernières décennies du 20ème siècle, comme le paradigme esthétique de l’architecture, des arts et de la littérature, le postmodernisme a également créé les conditions propres à une renaissance du roman historique. Cependant, la fiction historique postmoderne constitue maintenant une nouvelle forme du genre basée sur la parodie, l’ironie et le scepticisme envers les discours dominants. Cette nouvelle forme ne se limite plus à la présentation des récits dans un cadre historique réaliste. Elle remet plutôt en question la validité et par conséquent la nature même du discours historique, problématisant et mettant ainsi à l’avant le processus d’interprétation et de reconstruction du passé. Dans cette optique, la fiction historique contemporaine reflète les débats actuels sur les formes de l’historiographie, débats lancés par Hayden White. Dans les années 1980, la fiction historique a de nouveau fleuri dans l'espace culturel allemand tout comme ailleurs. Le présent mémoire analyse des formes postmodernes de la fiction historique en se basant sur trois romans historiques de langue allemande parus entre 1981 et 2005: Die Schrecken des Eises und der Finsternis de Christoph Ransmayr, Die Vermessung der Welt de Daniel Kehlmann et Marbot : Eine Biographie de Wolfgang Hildesheimer. L’analyse s'appuie sur divers modèles de la fiction postmoderne, en particulier sur le schéma de catégorisation du roman historique élaboré par Ansgar Nünning. Le mémoire montre dans quelle mesure ces romans appliquent des moyens stylistiques typiques pour le postmodernisme et portent un regard critique ou comique sur l’histoire et la culture allemande et autrichienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die mit seelischer Gesundheit assoziierten Themenfelder beziehen sich häufig auf die Bearbeitung und Heilung psychischer Erkrankungen. Modelle und Interventionen zur Förderung seelischer Gesundheit sind jedoch nicht nur dem Medizinsystem und der Heilkunde zuzuordnen, sondern umfassen unterschiedliche disziplinäre Zugänge. Die Begründung einer (neuen) Aufgabe in der Erwachsenenbildung kann hier über die Entwicklung eines Orientierungsmodells von seelischer Gesundheit erfolgen, an das auch Erwachsenenbildner*innen ihr Handeln ausrichten können. Im Kontext dieser Arbeit wird vor allen Dingen auf das Salutogenesemodell nach Antonovsky Bezug genommen, da es sich als Erklärungsmodell seelischer Gesundheit eignet. Seelische Gesundheit zu fördern geht jedoch von der Prämisse aus, das Kohärenzgefühl auch im Erwachsenenalter stärken zu können. Hier werden die Möglichkeiten der (intentionalen) Veränderungen durch Antonovsky und in pädagogischen Theorien zum Lernen Erwachsener unterschiedlich eingeschätzt. Das Kohärenzgefühl zum Orientierungspunkt pädagogischen Handelns in der Förderung seelischer Gesundheit zu machen, setzt demnach die Klärung voraus, ob der Umgang mit der individuellen (seelischen) Gesundheit schicksalhaft vorgegeben ist, wie dies im Salutogenesemodell zum Ausdruck kommt. Sind wir Herr im eigenen Haus oder bleiben wir dem einmal aufgebauten Muster an Lebenserfahrungen passiv ausgesetzt? Zur Beantwortung dieser Frage wird das Salutogenesemodell aus den Gesundheitswissenschaften mit systemisch-konstruktivistischen Theorien zum Lernen Erwachsener kontrastiert. Ein Vergleich soll untersuchen, ob eine Stärkung des Kohärenzgefühls durch Initiierung von Lernprozessen auch im Erwachsenenalter noch wahrscheinlich ist. Die in der vorliegenden Dissertation bearbeiteten Leitfragen lauten dementsprechend: 1. Wie kann das Salutogenesmodell, als gesundheitswissenschaftliches Erklärungsmodell von seelischer Gesundheit, durch systemisch-konstruktivistische Theorien zum Lernen Erwachsener sinnvoll ergänzt werden? 2. Welche Lernprozesse tangieren die Genese seelischer Gesundheit?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main purpose of this study is to assess the relationship between six bioclimatic indices for cattle (temperature humidity (THI), environmental stress (ESI), equivalent temperature (ESI), heat load (HLI), modified heat load (HLInew) and respiratory rate predictor(RRP)) and fundamental milk components (fat, protein, and milk yield) considering uncertainty. The climate parameters used to calculate the climate indices were taken from the NASA-Modern Era Retrospective-Analysis for Research and Applications (NASA-MERRA) reanalysis from 2002 to 2010. Cow milk data were considered for the same period from April to September when cows use natural pasture, with possibility for cows to choose to stay in the barn or to graze on the pasture in the pasturing system. The study is based on a linear regression analysis using correlations as a summarizing diagnostic. Bootstrapping is used to represent uncertainty estimation through resampling in the confidence intervals. To find the relationships between climate indices (THI, ETI, HLI, HLInew, ESI and RRP) and main components of cow milk (fat, protein and yield), multiple liner regression is applied. The least absolute shrinkage selection operator (LASSO) and the Akaike information criterion (AIC) techniques are applied to select the best model for milk predictands with the smallest number of climate predictors. Cross validation is used to avoid over-fitting. Based on results of investigation the effect of heat stress indices on milk compounds separately, we suggest the use of ESI and RRP in the summer and ESI in the spring. THI and HLInew are suggested for fat content and HLInew also is suggested for protein content in the spring season. The best linear models are found in spring between milk yield as predictands and THI, ESI,HLI, ETI and RRP as predictors with p-value < 0.001 and R2 0.50, 0.49. In summer, milk yield with independent variables of THI, ETI and ESI show the highest relation (p-value < 0.001) with R2 (0.69). For fat and protein the results are only marginal. It is strongly suggested that new and significant indices are needed to control critical heat stress conditions that consider more predictors of the effect of climate variability on animal products, such as sunshine duration, quality of pasture, the number of days of stress (NDS), the color of skin with attention to large black spots, and categorical predictors such as breed, welfare facility, and management system. This methodology is suggested for studies investigating the impacts of climate variability/change on food quality/security, animal science and agriculture using short term data considering uncertainty or data collection is expensive, difficult, or data with gaps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um den Fahrkomfort eines Automobils weiter zu erhöhen und zugleich dessen fahrdynamischen Grenzbereich kontinuierlich auszubauen, wurden im Laufe der letzten Jahrzehnte und insbesondere innerhalb der letzten Jahre vermehrt aktive Fahrwerkregelsysteme eingeführt. Durch diesen zunehmenden Verbau von Fahrwerksaktoren in heutigen Fahrzeugen nimmt jedoch die Beanspruchung des 12V-Energienetzes nach wie vor stetig zu und beeinträchtigt somit dessen Stabilität. Um das Bordnetz zu stützen, stehen nun einige Optionen zur Verfügung, wie z.B. der Einsatz einer zusätzlichen 48V-Spannungsebene. Da solche Technologien jedoch mit einem entsprechend hohen Mehraufwand einhergehen, ist es das Bestreben der Automobilindustrie, mit der Einführung derartiger Maßnahmen möglichst lange zu warten. Um diesen Zielkonflikt zu lösen, wird im Rahmen dieser Dissertation das Potential eines Zentralreglers für ein aktives Fahrwerk untersucht, welches unter Beachtung der Bordnetzstabilität und der geforderten fahrdynamischen Eigenschaften realisierbar ist. Zu diesem Zweck wird ein Versuchsträger aufgebaut und mit ausgewählten aktiven Fahrwerkskomponenten ausgestattet. Auf Basis dieses Versuchsfahrzeugs wird ein Gesamtfahrzeugmodell in der Simulationsumgebung Matlab/Simulink bzw. veDYNA generiert, welches in der Lage ist, die elektromechanischen Charakteristiken des aktiven Fahrwerks realitätsnah abzubilden. Da die Simulationsmodelle der Fahrwerkssteller Hinterachslenkung und Sportdifferenzial bislang nicht verfügbar waren, mussten zunächst entsprechende Modelle aufgebaut werden, welche die Auswirkungen der Aktoren sowohl auf die Fahrdynamik als auch auf den Strombedarf in geeigneter Form wiedergeben können. Das zentrale Regelungskonzept für das aktive Fahrwerk, welches im Rahmen dieser Arbeit zum Einsatz kommt, basiert auf einer linear-quadratischen Regelung (LQR) mit Führungsgrößenaufschaltung. Unter Zuhilfenahme der Simulationsumgebung und eines speziell entwickelten Optimierungstools werden unterschiedliche Reglerabstimmungen vorgestellt, bei denen zum einen die Absenkung des elektrischen Leistungsbedarfs und zum anderen die Umsetzung einer optimalen Fahrdynamik im Vordergrund steht. Zwecks Validierung der Berechnungsergebnisse werden anschließend die im Versuchsträger durchgeführten Untersuchungen präsentiert, bei denen diese Reglerabstimmungen gegenübergestellt werden, um das Potential des zentralen Regelungskonzeptes zu bewerten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A interacção dos humanos com os computadores envolve uma combinação das tarefas de programação e de utilização. Nem sempre é explícita a diferença entre as duas tarefas. Introduzir comandos num programa de desenho assistido por computador é utilização ou programação numa linguagem interpretada? Modificar uma folha de cálculo com macros é utilização ou programação? Usar um “Integrated Development Environment” ou IDE para inserir dados num ficheiro é utilização (do IDE) ou programação? A escrita de um texto usando LaTeX ou HTML é utilização ou programação numa “markup language”? Recorrer a um programa de computação simbólica é utilização ou programação? Utilizar um processador de texto é utilização ou programação visual? Ao utilizador não se exige um conhecimento completo de todos os comandos, todos os menus, todos os símbolos do software que utiliza. Nem a memorização da sintaxe e de todos os pormenores de funcionamento de um programa é um atributo necessário ou sequer útil ao utilizador; a concretização desse conhecimento não assegura maior eficiência na utilização. Quando se começa, apenas algumas instruções elementares são recebidas, por vezes de um colega, de um Professor, ou obtidas recorrendo à pesquisa na Internet. Com a familiarização, o utilizador exige mais do Software que usa e de si próprio: um manual passa a ser um recurso de grande utilidade. A confiança conquistada gera, periodicamente, a necessidade de auto-exame e de aumento do âmbito do conhecimento. Desta forma, quem utiliza computadores acaba por ser confrontado com uma tarefa que, efectivamente, pode ser considerada ou requer programação. Põe-se uma questão no imediato (se ninguém decidiu por si) que é a da selecção da linguagem de programação. A abordagem multiparadigma e longa experiência de utilização do C++ tornam-no atractivo para aplicações onde a eficiência se combina com a disponibilidade de estruturas de dados e algoritmos adoptados pela indústria (o que coloquialmente se denomina STL, Standard Template Library, cf. [#breymann, #josuttis], mais geralmente biblioteca Standard). Adicionalmente, linguagens populares como o Java, C# e PHP possuem sintaxes inspiradas e em muitas partes coincidentes com as do C e C++. Por exemplo, um ciclo “for” em Java é parcialmente coincidente com o do C99, que é um sub-conjunto do “for” do C++. São os pormenores, a eficiência e as capacidades do C++ que permitem a criação de software Profissional. Todos os sistemas operativos clássicos (Unix, Microsoft Windows, Linux) dispõem de compiladores, IDE, bibliotecas e são em grande parte construídos recorrendo a C e C++. Relativamente a outras linguagens, a quantidade de ferramentas disponível e o conhecimento adquirido durante décadas é difícil de ignorar. Esse conhecimento faz com que a sintaxe do C++ pareça muito maior do que o estritamente necessário e afaste potenciais interessados. A longa evolução do C++ introduziu também uma diferença no estilo muito marcada. Código dos anos 80 e 90 do século XX é frequentemente menos legível do que o que correntemente se produz. Muitos tutoriais disponíveis online fazem parecer a linguagem menos rigorosa (e mais complexa) do que na realidade é, já que raramente é apresentado o caso geral da sintaxe. Constata-se que muitos autores ainda usam os cabeçalhos do C, quando já não são necessários. Scott Meyers afirma que o C++ é uma federação de linguagens [#scottmeyers] e por esse facto requer perspectivas de abordagem distintas de outras linguagens. Sem alguma sistematização é difícil apreciar a sua compacidade e coerência. Porém, a forma harmoniosa como as componentes sintácticas se encaixam é uma grande mais-valia do C++ só constatada com experimentação e leitura atenta. A presente monografia dirige-se a quem pretenda utilizar o C++ como ferramenta profissional de Software. Em termos de pré-requisitos Académicos, dir-se-á que um curso (1º Ciclo) de Ciência ou de Engenharia aumentará o interesse por certos aspectos mais técnicos da linguagem mas qualquer indivíduo com gosto pela experimentação tirará proveito do conteúdo. Este texto não busca a exaustividade enciclopédica na cobertura do tema. Neste texto forneço, de forma directa, uma introdução ao C++ a qual permite começar a produzir código sem os custos da dispersão de fontes e notações na recolha de informação. Antecipo assim a sua utilização nos Países de Língua Portuguesa, uma vez que os textos que encontrei são ora mais exigentes ora menos completos, frequentemente ambos.