36 resultados para Simplicit
Resumo:
Mécénat texte imprimé : Cet ouvrage a été numérisé grâce à Norberto Giorgio Kuri
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mestrado em Engenharia Mecânica
Resumo:
Rapport de synthèse Introduction : Le Glasgow coma score (GCS) est un outil reconnu permettant l'évaluation des patients après avoir subi un traumatisme crânien. Il est réputé pour sa simplicité et sa reproductibilité permettant ainsi aux soignants une évaluation appropriée et continue du status neurologique des patients. Le GCS est composé de trois catégories évaluant la réponse oculaire, verbale et motrice. En Suisse, les soins préhospitaliers aux patients victimes d'un trauma crânien sévère sont effectués par des médecins, essdntiellement à bord des hélicoptères médicalisés. Avant une anesthésie générale nécessaire à ces patients, une évaluation du GCS est essentielle indiquant au personnel hospitalier la gravité des lésions cérébrales. Afin d'évaluer la connaissance du GCS par les médecins à bord des hélicoptères médicalisés en Suisse, nous avons élaboré un questionnaire, contenant dans une première partie des questions sur les connaissances générales du GCS suivi d'un cas clinique. Objectif : Evaluation des connaissances pratiques et théoriques du GCS par les médecins travaillant à bord des hélicoptères médicalisés en Suisse. Méthode : Etude observationnelle prospective et anonymisée à l'aide d'un questionnaire. Evaluation des connaissances générales du GCS et de son utilisation clinique lors de la présentation d'un cas. Résultats : 16 des 18 bases d'hélicoptères médicalisés suisses ont participé à notre étude. 130 questionnaires ont été envoyés et le taux de réponse a été de 79.2%. Les connaissances théoriques du GCS étaient comparables pour tous les médecins indépendamment de leur niveau de formation. Des erreurs dans l'appréciation du cas clinique étaient présentes chez 36.9% des participants. 27.2% ont commis des erreurs dans le score moteur et 18.5% dans le score verbal. Les erreurs ont été répertoriées le plus fréquemment chez les médecins assistants (47.5%, p=0.09), suivi par les chefs de clinique (31.6%, p=0.67) et les médecins installés en cabinet (18.4%, p=1.00). Les médecins cadres ont fait significativement moins d'erreurs que les autres participants (0%, p<0.05). Aucune différence significative n'à été observée entre les différentes spécialités (anesthésie, médecine interne, médecine général et «autres »). Conclusion Même si les connaissances théoriques du GCS sont adéquates parmi les médecins travaillant à bord des hélicoptères médicalisés, des erreurs dans son application clinique sont présentes dans plus d'un tiers des cas. Les médecins avec le moins d'expériences professionnelle font le plus d'erreurs. Au vu de l'importance de l'évaluation correcte du score de Glasgow initial, une amélioration des connaissances est indispensable.
Resumo:
Résumé : Introduction Cette étude est une analyse rétrospective des complications urétérales et de leurs prises en charge à partir d'une série monocentrique de 277 transplantations rénales consécutives. Matériel et méthode De septembre 1979 à juin 1999, 277 transplantations rénales (origine cadavérique) ont été pratiquées chez 241 patients. L'uretère provenant de la greffe rénale a été inséré dans la vessie selon la technique d'implantation extravésicale décrite par Lich-Gregoir et Campos-Freire. L'étude a analysé la date de survenue et le genre de complications observés. Les différentes procédures pour restaurer le tractus urinaire transplanté sont présentées dans cette étude. Résultats Des complications sont survenues chez 43/277 transplantations rénales (15,5%). Les fuites urinaires sur l'anastomose ou les sténoses urétérales étaient les plus fréquentes. La date de survenue de ces complications étaient soit précoce (< 1 mois) soit tardive (> 1 mois) dans un nombre similaire de cas. La plupart des cas ont été pris en charge chirurgicalement 33/43 cas (76,7%). La réparation chirurgicale la plus fréquente a été la réimplantation urétérovésicale (n-13), suivie par : l'anastomose urétérourétérale termino-terminale (uretère natif-uretère greffé, n-5) ; l'anastomose pyélourétérale (uretère natif-bassinet rénal greffé, n=5) ; la simple révision de l'implantation urétérovésicale (n=4) ; la résection et l'anastomose termino-terminale de l'uretère greffé (n=2) ; la calico-vésicostomie (vessie greffée, n=1) ; l'implantation selon Boari (n=1) ; la pyélovésicostomie avec bipartition de la vessie (n-1), et la pyéloiléocystoplastie avec greffe iléale détubularisée (n=1). Aucun décès en relation avec les complications urologiques n'a été rapporté. Cependant, 2 reflux vésico-rénaux consécutifs ont conduit à distance à la perte du greffon. Conclusion Le taux de complications constaté dans cette analyse rétrospective est similaire à celui observé dans d'autres études. Il se situe entre 2 et 20%. Si l'implantation urétérovésicale extravésicale classique reste une technique attractive en raison de sa simplicité, l'équipe chirurgicale dans un centre de formation doit rester attentive à toute mesure de prévention des complications urétérales, comme le choix d'une autre technique d'implantation de l'uretère et/ou de l'insertion transitoire d'un stent urétéral. Abstract Introduction: This study is a retrospective analysis of ureteral complications and their management from a monocenter series of 277 consecutive renal transplantations. Materials and Methods: From September 1979 to June 1999, 277 renal transplantations (cadaveric origin) were performed in 241 patients. The ureter from the kidney graft was inserted into the bladder according to the technique of extravesical implantation described by Lich-Gregoir and Campos-Freire. The study analyzed the time of occurrence and the type of complications observed. The different procedures to restore the transplanted urinary tract are presented. Results: Complications occurred in 431277 renal transplantations (15.5%). Anastomotic urine leakage or ureteral stricture were the most frequent. The time to appearance of these complications was either short (<1 month) or late (>1 month) in a similar number of cases. Most cases were managed surgically: 33/43 cases (76.7%). The most frequent surgi cal repair was ureterovesical reimplantation n =13), Followed by: ureteroureteral end, to end anastomosis (native ureter-ureter transplant, n =, 5); pyeloureteral anastomosis (native ureter-renal pelvis transplant n = 5): simple revision of ureterovesical implantation (n=4): resection and end-to end anastomosis of the transplant ureter (n=2); calico-vesicostomy graft-bladder, n = 1); implantation according to Boari (n= 1); pyelovesicostomy with bipartition of bladder (n = 1), and pyeloileocystoplasty with detubularized ileal graft (n=1). No deaths related to any of the urological complications were reported However, 2 consecutive vesico-renal refluxes led to the loss of the kidney graft in the long-term. Conclusion: The rate of complications observed in this retrospective analysis is similar to the experience of other studies, ranging from 2 to 20% If the classical extravesical ureteral bladder implantation is to remain an attractive technique due to its simplicity, the surgical team at the training center should be aware of all the means to prevent any ureteral complications, such as the choice of another implantation technique and/or insertion of a transient ureteral stent.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
Les monographies consacrées à Jean-Baptiste Perronneau (ca 1715-1783) à la fin du XIXe siècle et au début du XXe siècle traduisaient l'engouement pour l'art du XVIIIesiècle qui se déployait dans le Tout Paris de la Belle Époque. Elles rendaient justice au peintre de l'Académie royale de peinture et de sculpture de Paris, et à l'un des peintres favoris des contemporains des Impressionnistes qu'elles présentaient comme un artiste éclipsé de son vivant par son prestigieux aîné, Maurice Quentin Delatour (1704-1788). La première partie de la thèse étudie la carrière parisienne du peintre, ses appuis artistiques et sociaux, ses pratiques au pastel et à l'huile, de l'agrément en 1746 à la réception en 1753 et avant le début de la période des voyages en 1756. La rivalité avec Delatour, mise en scène dans un esprit d'émulation au Salon du Louvre pendant plus de vingt ans, y est largement évoquée. Un même nombre de portraits exposés fait comprendre que Perronneau avait de son vivant la faveur des artistes et du public. Il permet de mesurer les effets de la rivalité avec le peintre de Cour sur sa carrière. Delatour faisait exposer en 1750 son autoportrait à côté de son portrait demandé à Perronneau. Les qualités des deux peintres étaient comparées par la nouvelle critique. Notre étude s'attache à ce qui les rapproche comme à ce qui les sépare. Dans la deuxième partie, les peintres des milieux artistiques qu'il fréquente, Louis Tocqué, Jean-Baptiste Oudry, Charles Nicolas Cochin, pour citer les principaux, sont convoqués pour évaluer l'art de Perronneau dans ce que Cochin appelle la « ressemblance savante ». Les peintres les plus ambitieux s'attachent à son interprétation malgré les difficultés dues aux réactions de leur clientèle. La façon dont procède Perronneau est ici envisagée suivant deux aspects : d'une part, la composition du portrait selon une idée du naturel qui détermine l'attitude et une certaine imitation des défauts ; d'autre part, l'imitation de la nature qui réside dans les qualités de l'art, et donc picturales, appréciées des amateurs avertis. La façon qui lui est propre est de composer un naturel selon des poses variées, fondé sur la noblesse de l'attitude conjuguée à la simplicité, conformément à l'idéal courtois en vigueur depuis le XVIe siècle ; elle reste immuable au long de sa carrière. Dans l'imitation de la nature, sont mis en évidence des aspects cachés du faire lors de la mise en place du relief de la figure, les références aux maîtres anciens, Rembrandt, Van Dyck, la conscience de la distance à laquelle le tableau doit être vu, qui atténue la vigueur de la touche, comme le fait le verre qui sert aussi de vernis au pastel. L'idée de sprezzatura qui régit la distinction légère de la pose se décèle à la surface de ses portraits à travers l'apparence de facilité qu'il s'attache à leur donner, et jusque dans l'inimitable retouche finale. Grâce à la qualité de sa retouche, Perronneau accroît sensiblement dans certaines oeuvres à partir de 1768 l'expression savante et inventive de son sentiment. Afin de peindre comme il l'entend tout en gagnant sa vie et celle de sa famille, le peintre prend le parti de voyager comme l'y autorisait la libéralité de son statut. Dans la troisième partie est étudiée la trame de ses voyages que constituent les recommandations dont il bénéficie. Les identités des quatre cent dix modèles peints en France et en Europe de 1740 à 1782 sont systématiquement étudiées dans le catalogue ainsi que les conditions de leur rencontre avec le peintre. Elles décrivent une clientèle variée représentative de la mobilité des statuts dans l'Europe d'ancien Régime dont la composante nouvelle est la clientèle du monde de la banque internationale et du grand commerce. Leurs portraits peints à l'étranger ou dans les villes de Province que Perronneau présente au Salon irritent et inquiètent l'élite parisienne et donne lieu à de nouvelles tensions avec l'éternel rival, Delatour, au Salon de 1767. Perronneau se sent à juste titre évincé de Paris. Alors que l'on avait pu penser qu'il avait peu souffert des critiques du philosophe qui ne furent publiées qu'après sa mort, il apparaît que sa réputation pâtit de ses jugements diffusés par les nouvelles à la main au-delà des frontières et jusqu'auprès de la prestigieuse clientèle qui lui était acquise. Le travail sur son la carrière et l'oeuvre de Perronneau permet surtout une compréhension nouvelle de l'art du portrait au milieu du siècle, au moment où la représentation individuelle n'a jamais encore touché un aussi large public et où l'Académie ambitionne d'élever cet art au plus haut degré.
Resumo:
Contrairement à l'opinion formulée dans la littérature, les motets de Victoria sont majoritairement homophoniques. Cette prééminence se manifeste notamment dans le premier livre de motets du compositeur (Venise, 1572), qui comporte plus de la moitié des pièces qu'il a laissées dans le genre. Dans cette publication, 58% de l'ensemble des sections qui composent les motets sont homophoniques. En outre, plus le nombre de voix des pièces est élevé (5, 6 et 8 voix, par opposition aux motets à 4 voix), plus l'homophonie est utilisée. Cependant, les débuts des motets sont majoritairement imitatifs. Deux types de sections homophoniques jouent un rôle de poids. Le premier fait intervenir des sous-sections basées sur le même sujet dans une combinatoire répétition/variation. Dans les motets à 6, une opposition de registre aigu/grave renforce le procédé. Le second type voit se succéder des sous-sections nouvelles qui reposent sur des unités textuelles non répétées. Les sections homophoniques déploient une grande variété d'écriture, qui va de l'extrême « simplicité » à une complexité marquée. L'immédiate succession de sections bien différenciées constitue un marqueur formel fort. L'écriture, quel que soit le degré de complexité, repose régulièrement sur des modèles de progression intervallique. Si l'homophonie est prépondérante, son utilisation conjointe avec l'imitation reste primordiale dans la conception du motet qu'a le compositeur. Ces deux facteurs participent de la « modernité » des pièces. Ils répondent aux préoccupations humanistes des érudits de la musique, à qui le recueil est destiné et appartiennent de ce fait à la musica reservata.
Resumo:
Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.
Resumo:
Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.
Resumo:
Nous entendons, dans ce mémoire, préciser le sens d'actus essendi par l’analyse de l’emploi du terme par Thomas d’Aquin. Bien que la notion d’acte d’être soit sousjacente à nombre de développements philosophiques et théologiques de l’Aquinate, elle n’est considérée pour elle-même dans aucun texte du corpus thomasien. En exposant le cadre théorique des onze unités textuelles dans lesquelles on retrouve nommément l’expression, nous explicitons les distinctions qu’opère Thomas entre l’acte d’être et les notions ontologiques corrélatives (étant, quiddité, être du jugement prédicatif et être commun). Si « actus essendi » désigne en premier lieu un principe constitutif de l’étant, il peut encore désigner le terme abstrait correspondant à cette perfection de l’étant. L’acte d’être est ainsi ce par quoi l’étant est étant; il est cependant, au plan ontologique, propre à chaque étant singulier tandis que, au plan conceptuel, le même terme exprime ce qui est commun à tous les étants. Une traduction des extraits du Scriptum super Sententiis, des Quæstiones de quolibet, de la Summa Theologiæ, des Quæstiones disputatæ De potentia, de l’Expositio libri De hebdomadibus et de la Expositio libri Metaphysicæ a été produite pour les fins de cette étude.