10 resultados para Modularité massive
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
In der Arbeit wird eine Messgröße für die Mobilität im Personenverkehr formuliert und anhand dieser Messgröße eine vergleichende Bewertung von Szenarien der Siedlungs- und Verkehrsentwicklung vorgenommen. Mobilität im Sinne räumlicher Wahlmöglichkeiten sind die Freiheitsgrade der Menschen in der Auswahl ihrer räumlichen Ziele und Beziehungen. Mehr als das tatsächliche Verhalten unterliegen Wahlmöglichkeiten starken Einflüssen der Siedlungsstruktur. Die relevanten Siedlungsstrukturmerkmale werden zu zwei Hauptmerkmalen zusammengefasst, Lokale Urbanität und Regionale Geometrie, und ihre Ausprägungen zu fünf Leitbildern einer integrierten Entwicklung von Siedlung und Verkehr kombiniert: 1. Kompakte Stadt mit hoher lokaler Urbanität und großflächiger, sternförmiger Geometrie. 2. Städtenetz mit hoher lokaler Urbanität und kleinteiliger, netzförmiger Geometrie. 3. Autoland mit geringer lokaler Urbanität und großflächiger Geometrie. 4. Nivellierung mit mittlerer lokaler Urbanität und großflächiger sternförmiger Geometrie. 5. Differenzierung als ein kleinteiliges Nebeneinander von Städtenetz und Autoland bei nur schwacher gegenseitiger Vernetzung Die Leitbilder werden in einem mittelstädtischen Siedlungsraum in Ostwestfalen zu konkreten Szenarien für das Jahr 2050 entwickelt und die Wahlmöglichkeiten in diesen Szenarien berechnet: 1. In der Kompakten Stadt betragen die Wahlmöglichkeiten im Fußgänger-, Fahrrad- und öffentlichen Verkehr ca. das Zwanzigfache des Autolands und ca. das Fünffache des Nivellierungsszenarios. Selbst im Autoverkehr bietet die Kompakte Stadt ca. doppelt so große Wahlmöglichkeiten wie Autoland oder Nivellierung. Dieser Vergleich offenbart zugleich das verkehrliche Desaster der Trendentwicklung. 2. Der Vergleich sternförmiger Urbanität (Kompakte Stadt) mit netzförmiger Urbanität (Städtenetz) endet unentschieden. Die Mobilitätsvorteile hoher Urbanität lassen sich auch in kleinteiligen Strukturen und in allseitigen Siedlungsnetzen realisieren. 3. Die urbanen Szenarien Kompakte Stadt und Städtenetz erscheinen jedoch in der hier simulierten "Reinform" als planerisches Leitbild eher ungeeignet. Von größerer praktischer Relevanz ist der Vergleich der Szenarien Nivellierung und Differenzierung. In diesem Vergleich erweist sich die intensive Stadt-Umland-Verflechtung und die dafür notwendige Angleichung (Nivellierung) der Verkehrsangebote zwischen urbanen und suburbanen Siedlungsstrukturen als nachteilig. Demgegenüber erreicht das kleinteilige Nebeneinander von urbanem Städtenetz und suburbanem Autoland im Szenario Differenzierung sogar ein ähnliches Niveau räumlicher Wahlmöglichkeiten wie das Städtenetz, trotz wesentlich geringerer urbaner Siedlungsstrukturanteile. Es zeigt somit auch, dass die großen Mobilitätsvorteile urbaner Strukturen bereits bei einer teilweisen (Re-)Urbanisierung erzielt werden können. Suburbanisierung, Autoverkehrswachstum und Stadt-Umland-Verflechtung sind nicht zuletzt Folge von mindestens 70 Jahre alten Leitbildern in Planung und Politik. Die für das Differenzierungs-Szenario notwendige Phase teilräumlicher (Re-)Urbanisierung setzt weder massive Planungszwänge "gegen den Markt" noch große Wachstumsschübe voraus. Notwendig ist aber die Überprüfung vieler weiterer Politikfelder, die auf Siedlung und Verkehr einwirken. Nur geänderte Anreize und Spielregeln können die laufenden kleinen Standort- und Verkehrsentscheidungen in eine neue, effizientere Richtung lenken. Die Neubewertung der Standorte und Verkehrsangebote vergrößert dabei auch die Entwicklungsmasse. Ein frühzeitiges, langsames Umsteuern vermeidet ernsthafte Krisen mit möglicherweise nicht mehr beherrschbaren Verkehrskosten.
Continuation and discontinuation of local institution in community based natural resource management
Resumo:
Currently the push toward frontier areas, which until twenty years ago were still largely untouched by commercial agriculture, is taking place on a massive scale. This push is being driven not the least by global economic developments, such as the price increase of agriculture commodities like coffee and cocoa. In most cases the indigenous communities become trapped between the state monopoly in natural resource management and the competition for resources by external actors. In this processes the indigenous communities start to lose their access to resources. Another victim in this process is the environment where the natural resources are imbedded. International and national organizations working to conserve environment have became conscious of the important role that indigenous people could fulfill as partners in this endeavour. This partnership in struggle has produced a new discourse on the relationship between indigenous people and their environment. As a further consequence, programs were set up to develop what became known as Community Based Natural Resource Management (CBNRM) with its numerous variations. Based on a case study in a village on the eastern border of the Lore Lindu National Park in Central Sulawesi, this study questioned the basic assumption behind the concept of Community Based Natural Resource Management (CBNRM). Namely the assumption that communities living at the margin of forest are socially and culturally homogenous, still more or less egalitarian, and basically living in harmony with their natural environment. This study was inspired by the persistent critique – although still a minority – on the basic assumption the CBNRM from academicians and practitioners working through the Entitlement perspective. Another inspiration was the mounting critique toward the participatory approach. In its effort the study explore further the usefulness of certain approaches. One of the approach much relied on in this study was the local history of the community studied, through exerting oral and local written documents on local history, legends and local stories. These sources proofed quite capable in bringing the local history into the light. Another was the actor oriented approach, which later came to be supported by the concept of Social Pool Resources. The latter concept proofed to be useful as analytical instrument to integrate social institutions and the common pool resources, as a field of action for the different actors as human agencies.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Im Rahmen des vom Hessischen Ministerium der Finanzen geförderten Forschungsprojektes „Bausteine für die CO2-Neutralität im Liegenschaftsbestand hessischer Hochschulen“ wird die neu entwickelte Teilenergiekennwertmethode, kurz TEK - an dem Universitätsgebäude B10 der Fachhochschule Darmstadt (1962) in der Schöfferstraße 1, 64295 Darmstadt, angewandt. Das massive, unter Denkmal stehende Gebäude wird als Institutsgebäude der Fachbereiche Architektur und Bauingenieurswesen genutzt und hat einen quadratischen Grundriss mit Innenhof im Sichtklinkermauerwerk. 2008 wurden die meisten Fenster, die beiden kleinen RLT-Anlagen sowie Teile der Beleuchtungsanlagen ausgetauscht. Die aus den Analysen gewonnenen Gebäude- und Anlagendaten dienen als Datengrundlage für eine Querschnittsanalyse zum Nichtwohngebäudebestand. Der folgende Kurzbericht umfasst: • Eine kurze Beschreibung des Projektes und des Gebäudes, • die Bewertung des Ist-Zustands des Gebäudes, • die Angabe von Modernisierungsmaßnahmen unter Nennung der Energieeinsparung, der Grobkosten und der sich hieraus ergebenden Wirtschaftlichkeit, • einen Anhang mit ausführlichen Informationen zur Gebäudeanalyse. Der Primärenergiebedarf des Objektes wurde mit 398 kWh/(m²a) unter Berücksichtigung der vorhandenen Nutzung als „mittel“ eingestuft. Es wird empfohlen den Heizenergiebedarf durch Dämmungsmaßnahmen an der gesamten Hüllfläche (Fassade, Flachdach, Deckenplatte des 1. OG zum Durchgangsbereich) zu senken. Zusätzlich kann eine Senkung des Stromverbrauchs durch den Einsatz von Präsenzmeldern in Verkehrsbereichen geschaffen werden.
Resumo:
Im Rahmen des vom Hessischen Ministerium der Finanzen geförderten Forschungsprojektes „Bausteine für die CO2-Neutralität im Liegenschaftsbestand hessischer Hochschulen“ wird die neu entwickelte Teilenergiekennwertmethode, kurz TEK - an dem Hochschulgebäude L der Fachhochschule Fulda (1936) in der Leipziger Straße 119, 36037 Fulda, angewandt. Das massive Gebäude wurde vom Bundesgrenzschutz durch die Universität übernommen und weist eine kompakte, rechteckige Bauweise auf. Im Jahr 2007 fanden einige Umbau- und Sanierungsmaßnahmen statt, so dass es sich derzeit in einem sehr guten baulichen und anlagentechnischen Zustand befindet. Die aus den Analysen gewonnenen Gebäude- und Anlagendaten dienen als Datengrundlage für eine Querschnittsanalyse zum Nichtwohngebäudebestand. Der folgende Kurzbericht umfasst: • Eine kurze Beschreibung des Projektes und des Gebäudes, • die Bewertung des Ist-Zustands des Gebäudes, • die Angabe von Modernisierungsmaßnahmen unter Nennung der Energieeinsparung, der Grobkosten und der sich hieraus ergebenden Wirtschaftlichkeit, • einen Anhang mit ausführlichen Informationen zur Gebäudeanalyse. Der Primärenergiebedarf des Objektes wurde mit 187 kWh/(m²a) unter Berücksichtigung der vorhandenen Nutzung als „gering“ eingestuft. Trotz des vorhandenen Denkmalschutzes wird eine Dämmung der Außenfassade, aufgrund eines deutlichen Vorteils aus baulicher Sicht und einer erst kürzlich stattgefundenen innenseitigen Renovierung, empfohlen. Zusätzlich kann eine Senkung des Stromverbrauchs durch den Einsatz moderner Beleuchtungstechnik mit Präsenzmeldern geschaffen werden.
Resumo:
The working paper’s main objective is to explore the extent to which non-compliance to international labor rights is caused by global competition. From the perspective of institutional economics, compliance with core labor rights is beneficial for sustainable development. Nonetheless, violations of these rights occur on a massive scale. The violators usually blame competitive pressures. A number of studies have come to the conclusion that non-compliance does not provide for a competitive edge, thereby denying any economic rationale for non-compliance. While we sympathize with this conclusion, we find that these studies suffer from faulty assumptions in the design of their regression analyses. The assumption of perfect markets devoid of power relations is particularly unrealistic. While workers' rights promise long-term benefits, they may incur short-term production cost increases. On the supply side, the production sites with the highest amount of labor rights violations are characterized by a near perfect competitive situation. The demand side, however, is dominated by an oligopoly of brand name companies and large retailers. Facing a large pool of suppliers, these companies enjoy more bargaining power. Developing countries, the hosts to most of these suppliers, are therefore limited in their ability to raise labor standards on their own. This competitive situation, however, is the very reason why labor rights have to be negotiated internationally. Our exploration starts with an outline of the institutionalist argument of the benefits of core labor rights. Second, we briefly examine some cross-country empirical studies on the impact of trade liberalization (as a proxy for competitive pressures). Third, we develop our own argument which differentiates the impact of trade liberalization along the axes of labor- and capital-intensive production as well as low and medium skill production. Finally, we present evidence from a study on the impact of trade liberalization in Indonesia on the garment industry as an example of a low skill, laborintensive industry on the one hand, and the automobile as an example for a medium skill, capital-intensive industry on the other hand. Because the garment industry’s workforce consists mainly of women, we also discuss the gender dimension of trade liberalization.
Resumo:
Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.
Resumo:
Rising global energy needs and limited fossil fuel reserves have led to increased use of renewable energies. In Germany, this has entailed massive exploitation of agricultural biomass for biogas generation, associated with unsustainable farming practices. Organic agriculture not only reduces negative environmental impacts, organic farmers were also prime movers in anaerobic digestion (AD) in Germany. This study’s aim was to identify the structure, development, and characteristics of biogas production associated with organic farming systems in order to estimate further development, as well as energetic and associated agronomic potentials. Surveys were conducted among organic farms with AD technology. 144 biogas plants could be included in the analysis. Total installed electrical capacity was 30.8 MWel, accounting for only 0.8% of the total installed electrical capacity in the German biogas sector. Recently, larger plant types (>250 kWel) with increased use of (also purchased) energy crops have emerged. Farmers noticed increases in yields (22% on average) and quality of cash crops in arable farming through integrated biogas production. In conclusion, although the share of AD in organic farming is relatively small it can provide various complementary socio-ecological benefits such as the enhancement of food output through digestate fertilization without additional need for land, while simultaneously reducing greenhouse gas emissions from livestock manures and soils. However, to achieve this eco-functional intensification, AD systems and their management have to be well adapted to farm size and production focus and based primarily on residue biomass.
Resumo:
In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.