999 resultados para Falls View
Resumo:
L’objectif principal de cette thèse est d’explorer et d’analyser la réception de l’œuvre d’Eugen Wüster afin d’expliquer comment ses travaux ont influencé le développement disciplinaire de la terminologie. Du point de vue historique, les travaux de Wüster, en particulier la Théorie générale de la terminologie, ont stimulé la recherche en terminologie. Malgré des opinions divergentes, on s’entend pour reconnaître que les travaux de Wüster constituent la pierre angulaire de la terminologie moderne. Notre recherche vise spécifiquement à explorer la réception de l’œuvre wüsterienne en étudiant les écrits relatifs à cette œuvre dans la littérature universitaire en anglais, en espagnol et en français entre 1979 et 2009, en Europe et en Amérique. Réalisée dans le cadre du débat sur la réception de l’œuvre de Wüster, cette étude se concentre exclusivement sur l’analyse des critiques et des commentaires de son œuvre. Pour ce faire, nous avons tenu compte de la production intellectuelle de Wüster, de sa réception positive ou négative, des nouvelles approches théoriques en terminologie ainsi que des études portant sur l’état de la question en terminologie entre 1979 et 2009. Au moyen d’une recherche qualitative de type exploratoire, nous avons analysé un corpus de textes dans lesquels les auteurs : a. ont cité textuellement au moins un extrait d’un texte écrit par Wüster ; b. ont référé aux travaux de Wüster dans la bibliographie de l’article ; ou c. ont fait un commentaire sur ces travaux. De cette manière, nous avons cerné les grandes lignes du débat autour de la réception de son œuvre. Les résultats de notre étude sont éloquents. Ils offrent une idée claire de la réception des travaux de Wüster dans la communauté scientifique. Premièrement, Wüster représente une figure centrale de la terminologie moderne en ce qui concerne la normalisation terminologique. Il fut le premier à proposer une théorie de la terminologie. Deuxièmement, la contextualisation appropriée de son œuvre constitue un point de départ essentiel pour une appréciation éclairée et juste de sa contribution à l’évolution de la discipline. Troisièmement, les résultats de notre recherche dévoilent comment les nouvelles approches théoriques de la terminologie se sont adaptées aux progrès scientifiques et techniques. Quatrièmement, une étude menée sur 166 articles publiés dans des revues savantes confirme que l’œuvre de Wüster a provoqué des réactions variées tant en Europe qu’en Amérique et que sa réception est plutôt positive. Les résultats de notre étude font état d’une tendance qu’ont les auteurs de critiquer les travaux de Wüster avec lesquels, dans la plupart des cas, ils ne semblent cependant pas être bien familiarisés. La « méthodologie des programmes de recherche scientifique », proposée par Lakatos (1978) et appliquée comme un modèle interprétatif, nous a permis de démontrer que Wüster a joué un rôle décisif dans le développement de la terminologie comme discipline et que la terminologie peut être perçue comme un programme de recherche scientifique. La conclusion principale de notre thèse est que la terminologie a vécu des changements considérables et progressifs qui l’ont aidée à devenir, en termes lakatosiens, une discipline forte tant au plan théorique que descriptif.
Resumo:
"L’auteur présente une analyse générale de l’évolution historique et des développements récents du régime des droits d’auteur au Canada. Avec le développement des nouvelles technologies de l’information, et plus spécifiquement de l’Internet, le régime canadien des droits d’auteur nécessiterait d’importantes réformes. L’auteur déplore toutefois les modifications récentes issues de la loi C-60. En effet, selon lui, ces changements ne correspondent pas au régime international proposé par l’Organisation Mondiale de Propriété Intellectuelle. En fait, ceux-ci cadrent beaucoup plus avec la perspective américaine de protection limitative des droits d’auteur. Michael Geist trace d’abord l’historique du développement du régime de protection des droits d’auteur au Canada. Il souligne notamment les modifications législatives importantes de la fin des années 1980 et 1990 qui visaient à renforcer les règles de reconnaissance et de protection des droits que les auteurs canadiens possèdent sur leurs œuvres. Parallèlement, à ces modifications législatives, la Cour Suprême du Canada s’est aussi prononcée sur la question des droits d’auteur en interprétant limitativement la portée de ce régime, facilitant ainsi l’accès des œuvres artistiques au domaine public. L’auteur souligne les divergences et les contradictions entre la conception législative et celle jurisprudentielle de la fonction du régime canadien des droits d’auteur. Le législateur canadien a récemment proposé une nouvelle modification du régime de droits d’auteurs qui consisterait en l’extension des délais obligatoire avant qu’une œuvre couverte par le régime ne soit incluse dans le domaine public. Michael Geist s’oppose à une telle modification et soutient qu’elle entraînerait de nombreuses conséquences négatives pour les auteurs et les artistes canadiens. En effet, cette modification limiterait l’accès des auteurs aux oeuvres antérieures, elle entraverait les opportunités et les capacités commerciales des œuvres canadiennes et restreindrait les domaines de recherche académique. L’auteur aborde par la suite la problématique reliée aux ""Mesures de Protection Techniques"" et à la législation qui les encadre. En analysant les problèmes causés par ces mesures aux États-Unis, il présente leurs effets nuisibles pour les domaines fondamentaux de la liberté de parole et de la recherche académique. Les réformes possibles du régime canadien des droits d’auteur se situent dans une perspective plus ouverte du régime de protection et de promotion des œuvres canadiennes. Ces réformes auraient l’avantage de promouvoir et de protéger les œuvres canadiennes tout en évitant les problèmes causés par les mesures trop limitatives. À ce sujet, l’auteur propose l’établissement d’une bibliothèque digitale nationale, l’abrogation des droits d’auteur de la couronne et un nouveau régime permettant l’utilisation du matériel radiodiffusé de la Société Radio-Canada."
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.
Resumo:
Depuis les années cinquante la sociologie a été concernée par le phénomène des mouvements sociaux. Diverses théories ont essayé de les expliquer. Du collective behaviour à la mobilisation des ressources, par l`entremise de processus politiques, et de la perspective de framing jusqu'à la théorie des nouveaux mouvements sociaux, la sociologie a trouvé certains moyens pour expliquer ces phénomènes. Bien que toutes ces perspectives couvrent et saisissent des facettes importantes des angles de l'action collective, ils le font de manière disparate, en regardant un côté et en omettant l'autre. Les différences entre les points de vue proviennent, d'une part, d'un changement dans les contextes sociaux, historiques et scientifiques, et d'autre part du fait que les différentes approches ne posent pas les mêmes questions, même si certaines questions se chevauchent. Poser des questions différentes amène à considérer des aspects différents. En conséquence, ce n'est pas seulement une question de donner une réponse différente à la même question, mais aussi une question de regarder le même objet d'étude, à partir d'un angle différent. Cette situation réside à la base de la première partie de ma thèse principale: le champ de la théorie des mouvements sociaux n'est pas suffisant, ni suffisamment intégré pour expliquer l'action collective et nous avons besoin d'une théorie plus complète afin d'obtenir une meilleure compréhension des mouvements et la façon dont ils remplissent leur rôle de précurseurs de changement dans la société. Par conséquent, je considère que nous avons besoin d'une théorie qui est en mesure d'examiner tous les aspects des mouvements en même temps et, en outre, est capable de regarder au-delà de la forme de l'objet d’étude afin de se concentrer sur l'objet lui-même. Cela m'amène à la deuxième partie de l'argument, qui est l'affirmation selon laquelle la théorie générale des systèmes telle que formulée par Niklas Luhmann peut contribuer à une meilleure compréhension de l'action collective. Il s'agit d'une théorie intégrale qui peut compléter le domaine de la théorie de l`action collective en nous fournissant les outils nécessaires pour rechercher dynamiquement les mouvements sociaux et de les comprendre dans le contexte social en perpétuel changement. Une analyse du mouvement environnementaliste sera utilisé pour montrer comment les outils fournis par cette théorie nous permettent de mieux comprendre non seulement les mouvements sociaux, mais également le contexte dans lequel ils fonctionnent, comment ils remplissent leur rôle, comment ils évoluent et comment ils changent aussi la société.
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.
Resumo:
Mn(II) complexes derived from a set of acylhydrazones were synthesised and characterized by elemental analyzes, IR, UV–vis and X-band EPR spectral studies as well as conductivity and magnetic susceptibility measurements. In the reported complexes, the hydrazones exist either in the keto or enolate form, as evidenced by IR spectral data. Crystal structures of two complexes are well established using single crystal X-ray diffraction studies. In both of these complexes two equivalent monoanionic ligands are coordinated in a meridional fashion using cis pyridyl, trans azomethine nitrogen and cis enolate oxygen atoms positioned very nearly perpendicular to each other. EPR spectra in DMF solutions at 77 K show hyperfine sextets and in some of the complexes the low intensity forbidden lines lying between each of the two hyperfine lines are also observed
Resumo:
Die Beiträge dieser Veröffentlichung sind aus Vorträgen anlässlich der Postdoc-Konferenz zu Ehren von Prof. Dr. Detlev Ipsen, der sich im September 2010 aus dem Universitätsdienst verabschiedete, entstanden. Das inhaltliche Kernprogramm der Postdoc-Konferenz war bewusst auf sehr unterschiedliche Perspektiven auf den Raum und die Raumwahrnehmung ausgerichtet und bildet sich auch in den Beiträgen dieser Veröffentlichung ab. Elisabeth Heidenreich widmet sich in ihrem Beitrag „Der moderne Dschihad und seine (sakralen) Räume“ den technischen Räumen des islamistischen Terrorismus. Hans-Ulrich Werner zeigt in seinem Beitrag „SoundScapes als Klang und Raum“ verschiedene Begegnungen der Musik- und Klangwissenschaft mit der Stadt- und Umweltplanung auf und setzt sich mit der Bedeutung und Transformation von „Klangräumen“ in der Planung auseinander. Der Beitrag von Susanne Kost „Kulturbedingte Unterschiede im Landschaftsbewusstsein – eine Annäherung“ analysiert, wie und wodurch sich bestimmte Handlungs- und Wahrnehmungsweisen in Kulturen entwickelt haben könnten und ob sich am Beispiel der Niederlande bestimmte Muster der Landschaftswahrnehmung identifizieren lassen. Ilya Maharika erörtert in seinem Beitrag „Urban Gene of Desakota. A Dynamic of Indonesian Urban-Rural Continuum with the Case of Yogyakarta Region” internationale Phänomene und Dynamiken im Stadt-Land-Gefüge.
Resumo:
Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.
Resumo:
In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.
Resumo:
A convergence of factors has made food security one of the most important global issues. It has been the core concept of the Milan Expo 2015, whose title, Feeding the Planet, Energy for Life, embodied the challenge to provide the world’s growing population with a sustainable, secure supply of safe, nutritious, and affordable high-quality food using less land with lower inputs. Meeting the food security agenda using current agricultural production techniques cannot be achieved without serious degradation to the environment, including soil degradation, loss of biodiversity and climate change. Organic farming is seen as a solution to the challenge of sustainable food production, as it provides more nutritious food, with less or no pesticide residues and lower use of inputs. A limit of organic farming is its restricted capability of producing food compared to conventional agriculture, thus being an inefficient approach to food production and to food security. The authors maintain, on the basis of a scientific literature review, that organic soils tend to retain the physical, chemical and biological properties over the long term, while maintaining stable levels of productivity and thereby ensuring long-term food production and safety. Furthermore, the productivity gap of organic crops may be worked out by further investment in research and in particular into diversification techniques. Moreover, strong scientific evidence indicates that organic agricultural systems deliver greater ecosystem services and social benefits.