952 resultados para Digital elevation model - DEM
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
Im Rahmen dieser Arbeit konnte in dem marinen Schwamm Suberites domuncula ein Gen identifiziert werden, dessen C-terminale konservierte Domäne eine hohe Sequenzähnlichkeit zu den Zinkfingerdomänen der Nanos-Proteine aufweist. Weiter konnte ein N-terminales Sequenzmotiv identifiziert werden, das eine hohe Sequenzidentität zu den konservierten NIM Motiven (CNOT1-interagierendes-Motiv) von Nanos zeigt. Nach der Klonierung der cDNA erfolgte die Expression des als Sd_nrp bezeichneten Proteins in E. coli Bakterien, für dessen 231 Aminosäuren umfassende Polypeptidkette eine theoretische Molekülmasse von 25.8 kDa berechnet wurde. Anschließend gelang ein Nachweis des Proteins mithilfe eines polyklonalen, gegen Sd_nrp gerichteten Antikörpers in drei Gewebetypen, dem Pinacoderm, den Primmorphen (3D-Zellaggregate) und den Gemmulae (Dauerstadien der Schwämme). Dabei konnte die höchste Expression von Sd_nrp in den als totipotent geltenden Stammzellen der Schwämme, den Archaeocyten innerhalb der Gemmulae beobachtet werden. Die Identifizierung der Zellstrukturen, erfolgte dabei aufgrund morphologischer Vergleiche. Speziell die Merkmale der Zellen in den Gemmulae, der große Nukleus, die amöboide Form sowie die granulären Reservesubstanzen, entsprechen den typischen morphologischen Eigenschaften der Archaeocyten, und bestätigen die Interpretation der Ergebnisse. Weiter konnte mit Hilfe des Anti-Sd_nrp Antikörpers das native Protein in Proteinextrakten aus Gewebe adulter Tiere nachgewiesen werden. Die vergleichende Sequenzanalyse von Sd_nrp mit dem Nanos-verwandten Protein der Schwammspezies Ephydatia fluviatilis und die phylogenetische Stammbaum-Analyse mit Nanos-Homologen unterschiedlicher Invertebraten und Vertebraten lässt die Schlussfolgerung zu, dass es sich bei dem hier identifizierten Protein Sd_nrp um ein Nanos-verwandtes Protein handelt. Darüber hinaus konnte anhand eines Homologiemodells bestätigt werden, dass es sich bei der konservierten C-terminalen Domäne des Proteins Sd_nrp um die für Nanos-Proteine spezifische Zinkfingerstruktur mit dem konservierten Sequenzmotiv CCHC handelt. Dieses Ergebnis konnte auch bei einem Vergleich der Zinkfingerdomäne von Sd_nrp mit den Zinkfingerdomänen der Nanos-Homologen unterschiedlicher Invertebraten- und Vertebratenspezies bestätigt werden.
Resumo:
Biorelevante Medien sind entwickelt worden, um die Bedingungen im Magen-Darm-Trakt vor und nach der Mahlzeit zu imitieren. Mit FaSSIF und FeSSIF wurden Medien eingeführt, die nicht nur die pH- und Puffer-Kapazität des Dünndarms widerspiegeln, sondern auch Lipid und physiologische Tensid-Arten enthalten. Diese Medien (FaSSIF-V2 und FaSSlFmod6.5) wurden für Bioverfügbarkeitstudien in der Medikamentenentwicklung im Laufe der Jahre kontinuierlich weiterentwickelt. Dennoch sind die auf dem Markt verfügbaren Medien immer noch nicht in der Lage, die realen physiologischen Bedingungen zu simulieren. In der jetzigen Zusammensetzung sind nicht alle Kompetenten enthalten, welche natürlicher Weise im Duodenum vorkommen. Darüber hinaus wird nur eine 1:5 Verdünnung von FeSSIF zu FaSSIF angenommen, die individuelle Wasserzufuhr bei Medikamentengabe wird hierdurch jedoch nur eingeschränkt simuliert, obwohl diese von Patient zu Patient schwanken kann. rnZiel dieser Dissertation war die Verbesserung der Vorhersage der Auflösung und Absorption lipophiler Arzneistoffe durch Simulation der Bedingungen im zweiten Teil des Zwölffingerdarms mit neuen biorelevanten Medien, sowie unter Einwirkung zusätzlicher Detergention als Wirkstoffträger. rnUm den Effekt der Verdünnungsrate und Zeit im Dünndarm zu untersuchen, wurde die Entwicklung der Nanopartikel in der Magen-Darm-Flüssigkeit FaSSIFmod6.5 zu verschiedenen Zeitpunkten und Wassergehalten untersucht. Dafür wurden kinetische Studien an verschieden konzentrierten Modellmedien nach Verdünnungssprung untersucht. Das Modell entspricht der Vermischung der Gallenflüssigkeit mit dem Darminhalt bei variablem Volumen. Die Ergebnisse zeigen, dass Art und Größe der Nanopartikel stark von Verdünnung und Einirkungszeit abhängen. rnrnDie menschliche Darmflüssigkeit enthält Cholesterin, welches in allen früheren Modellmedien fehlt. Daher wurden biokompatible und physiologische Modellflüssigkeiten, FaSSIF-C, entwickelt. Der Cholesteringehalt von FaSSIF - 7C entspricht der Gallenflüssigkeit einer gesunden Frau, FaSSIF - 10C der einer gesunden männlichen Person und FaSSIF - 13C der in einigen Krankheitszuständen. Die intestinale Teilchen-Struktur-Untersuchung mit dynamische Lichtstreuung (DLS) und Neutronen-Kleinwinkelstreuung (SANS) ergab, dass die Korngröße von Vesikeln mit zunehmender Cholesterin-Konzentration abnahm. Zu hohe Cholesterin-Konzentration bewirkte zusätzlich sehr große Partikel, welche vermutlich aus Cholesterin-reichen “Disks“ bestehen. Die Löslichkeiten einiger BCS Klasse II Wirkstoffe (Fenofibrat, Griseofulvin, Carbamazepin, Danazol) in diesen neuen Medien zeigten, dass die Löslichkeit in unterschiedlicher Weise mit der Cholesteringehalt zusammen hing und dieser Effekt selektiv für die Droge war. rnDarüber hinaus wurde die Wirkung von einigen Tensiden auf die kolloidale Struktur und Löslichkeit von Fenofibrat in FaSSIFmod6.5 und FaSSIF -7C untersucht. Struktur und Löslichkeit waren Tensid- und Konzentrations-abhängig. Im Falle von FaSSIFmod6.5 zeigten die Ergebnisse eine dreifache Verzweigung der Lösungswege. Im Bereich mittlerer Tensidkonzentration wurde eine Löslichkeitslücke der Droge zwischen der Zerstörung der Galle-Liposomen und der Bildung von Tensid-reichen Mizellen beobachtet. In FaSSIF - 7C, zerstörten Tenside in höherer Konzentration die Liposomenstruktur trotz der allgemeinen Stabilisierung der Membranen durch Cholesterin. rnDie in dieser Arbeit vorgestellten Ergebnisse ergeben, dass die Anwesenheit von Cholesterin als eine fehlende Komponente der menschlichen Darmflüssigkeit in biorelevanten Medien wichtig ist und dazu beitragen kann, das in vivo Verhalten schwerlöslicher Arzneistoffe im Körper besser vorhersagen zu können. Der Verdünnungsgrad hat einen Einfluss auf die Nanopartikel-Struktur und Tenside beeinflussen die Löslichkeit von Medikamenten in biorelevanten Medien: Dieser Effekt ist sowohl von der Konzentration das Tensids abhängig, als auch dessen Typ.rnrn
Resumo:
Die neogene Lagos-Portimão Formation (Unter- bis Mittelmiozän) bildet einen Teil der Steilküste der Algarve (S-Portugal) und besteht aus einer zyklischen Wechsellagerung von Karbonaten und Sand-steinen. Die vorliegende Arbeit bietet ein Modell zur sedimentologischen, faziellen und stratigraphischen Entwicklung dieser Einheit an. Basierend auf Profilen entlang der gesamten lateralen Erstreckung der Einheit wurden verschiedene Gelände- und Labormethoden angewandt, um ein Modell entwickeln zu können. Messungen des Sr87/86-Isotopenverhältnisses sollten Klarheit bezüglich der stratigraphischen Position bringen. Die laterale Korrelation der Profile erfolgte über lithologische und fazielle Ansprachen. Unterstützend wurden einzelne Profile mit einem tragbaren Gammaray-Spektrometer gemessen. Es wurden vier Leithorizonte etabliert, die sich durch fazielle Merkmale und spezielle Fossilführung defi-nieren lassen. Die Mikrofazies wurde qualitativ und quantitativ analysiert. Als statistisches Verfahren wurde unter anderem eine hierarchische Clusteranalyse durchgeführt, über welche fünf Biofaziestypen des warm-temperierten Klimabereichs unterschieden werden. Die Fossilführung wird von Mollusken, Bryozoen und Rotalgen dominiert. Ausnahmen bilden stratigraphisch isolierte Vorkommen von kolo-nialen Korallen, die jedoch keine Riffkörper aufbauen. Die Ergebnisse aller zuvor erwähnten Untersuchungen deuten auf Ablagerungen eines nicht-tropischen Hochenergie-Schelfs hin. Sedimentäre Zyklen sind oftmals unvollständig, es treten Hartgründe und Auf-arbeitungs- bzw- Kondesationshorizonte auf. Die geochemische Altersdatierung weist Alterssprünge und -inversionen auf. Ein Vergleich mit dem SW-australischen Schelf und dem von James et al. (1994) eingeführten Modell des shaved shelf bietet sich aufgrund der Ähnlichkeit der Sedimentgesteine und des ozeanographischen Settings an. Weiterhin werden zeitgleiche bzw. faziell ähnliche Becken vergleichend diskutiert. Das Sedimentationsgeschehen der Lagos-Portimão Formation wird maßgeblich durch eine halokinetisch bedingte unregelmäßige Subsidenz und Hebung beeinflußt. Der Salzdom von Albufeira war während der Sedimentation der Einheit mehrfach in Bewegung. Rutschungspakete, Entlastungsspalten und Sanddikes zeugen davon. Die sequenzstratigraphische Interpretation bietet einen neuen Ansatz, in dem sie von Hochstand-Sandsteinen und Tiefstand-Karbonaten ausgeht.
Resumo:
In this work we study a model for the breast image reconstruction in Digital Tomosynthesis, that is a non-invasive and non-destructive method for the three-dimensional visualization of the inner structures of an object, in which the data acquisition includes measuring a limited number of low-dose two-dimensional projections of an object by moving a detector and an X-ray tube around the object within a limited angular range. The problem of reconstructing 3D images from the projections provided in the Digital Tomosynthesis is an ill-posed inverse problem, that leads to a minimization problem with an object function that contains a data fitting term and a regularization term. The contribution of this thesis is to use the techniques of the compressed sensing, in particular replacing the standard least squares problem of data fitting with the problem of minimizing the 1-norm of the residuals, and using as regularization term the Total Variation (TV). We tested two different algorithms: a new alternating minimization algorithm (ADM), and a version of the more standard scaled projected gradient algorithm (SGP) that involves the 1-norm. We perform some experiments and analyse the performance of the two methods comparing relative errors, iterations number, times and the qualities of the reconstructed images. In conclusion we noticed that the use of the 1-norm and the Total Variation are valid tools in the formulation of the minimization problem for the image reconstruction resulting from Digital Tomosynthesis and the new algorithm ADM has reached a relative error comparable to a version of the classic algorithm SGP and proved best in speed and in the early appearance of the structures representing the masses.
Resumo:
A laser scanning microscope collects information from a thin, focal plane and ignores out of focus information. During the past few years it has become the standard imaging method to characterise cellular morphology and structures in static as well as in living samples. Laser scanning microscopy combined with digital image restoration is an excellent tool for analysing the cellular cytoarchitecture, expression of specific proteins and interactions of various cell types, thus defining valid criteria for the optimisation of cell culture models. We have used this tool to establish and evaluate a three dimensional model of the human epithelial airway wall.
Resumo:
Model based calibration has gained popularity in recent years as a method to optimize increasingly complex engine systems. However virtually all model based techniques are applied to steady state calibration. Transient calibration is by and large an emerging technology. An important piece of any transient calibration process is the ability to constrain the optimizer to treat the problem as a dynamic one and not as a quasi-static process. The optimized air-handling parameters corresponding to any instant of time must be achievable in a transient sense; this in turn depends on the trajectory of the same parameters over previous time instances. In this work dynamic constraint models have been proposed to translate commanded to actually achieved air-handling parameters. These models enable the optimization to be realistic in a transient sense. The air handling system has been treated as a linear second order system with PD control. Parameters for this second order system have been extracted from real transient data. The model has been shown to be the best choice relative to a list of appropriate candidates such as neural networks and first order models. The selected second order model was used in conjunction with transient emission models to predict emissions over the FTP cycle. It has been shown that emission predictions based on air-handing parameters predicted by the dynamic constraint model do not differ significantly from corresponding emissions based on measured air-handling parameters.
Resumo:
This is the first part of a study investigating a model-based transient calibration process for diesel engines. The motivation is to populate hundreds of parameters (which can be calibrated) in a methodical and optimum manner by using model-based optimization in conjunction with the manual process so that, relative to the manual process used by itself, a significant improvement in transient emissions and fuel consumption and a sizable reduction in calibration time and test cell requirements is achieved. Empirical transient modelling and optimization has been addressed in the second part of this work, while the required data for model training and generalization are the focus of the current work. Transient and steady-state data from a turbocharged multicylinder diesel engine have been examined from a model training perspective. A single-cylinder engine with external air-handling has been used to expand the steady-state data to encompass transient parameter space. Based on comparative model performance and differences in the non-parametric space, primarily driven by a high engine difference between exhaust and intake manifold pressures (ΔP) during transients, it has been recommended that transient emission models should be trained with transient training data. It has been shown that electronic control module (ECM) estimates of transient charge flow and the exhaust gas recirculation (EGR) fraction cannot be accurate at the high engine ΔP frequently encountered during transient operation, and that such estimates do not account for cylinder-to-cylinder variation. The effects of high engine ΔP must therefore be incorporated empirically by using transient data generated from a spectrum of transient calibrations. Specific recommendations on how to choose such calibrations, how many data to acquire, and how to specify transient segments for data acquisition have been made. Methods to process transient data to account for transport delays and sensor lags have been developed. The processed data have then been visualized using statistical means to understand transient emission formation. Two modes of transient opacity formation have been observed and described. The first mode is driven by high engine ΔP and low fresh air flowrates, while the second mode is driven by high engine ΔP and high EGR flowrates. The EGR fraction is inaccurately estimated at both modes, while EGR distribution has been shown to be present but unaccounted for by the ECM. The two modes and associated phenomena are essential to understanding why transient emission models are calibration dependent and furthermore how to choose training data that will result in good model generalization.
Resumo:
This is the second part of a study investigating a model-based transient calibration process for diesel engines. The first part addressed the data requirements and data processing required for empirical transient emission and torque models. The current work focuses on modelling and optimization. The unexpected result of this investigation is that when trained on transient data, simple regression models perform better than more powerful methods such as neural networks or localized regression. This result has been attributed to extrapolation over data that have estimated rather than measured transient air-handling parameters. The challenges of detecting and preventing extrapolation using statistical methods that work well with steady-state data have been explained. The concept of constraining the distribution of statistical leverage relative to the distribution of the starting solution to prevent extrapolation during the optimization process has been proposed and demonstrated. Separate from the issue of extrapolation is preventing the search from being quasi-static. Second-order linear dynamic constraint models have been proposed to prevent the search from returning solutions that are feasible if each point were run at steady state, but which are unrealistic in a transient sense. Dynamic constraint models translate commanded parameters to actually achieved parameters that then feed into the transient emission and torque models. Combined model inaccuracies have been used to adjust the optimized solutions. To frame the optimization problem within reasonable dimensionality, the coefficients of commanded surfaces that approximate engine tables are adjusted during search iterations, each of which involves simulating the entire transient cycle. The resulting strategy, different from the corresponding manual calibration strategy and resulting in lower emissions and efficiency, is intended to improve rather than replace the manual calibration process.
Resumo:
We show that the variation of flow stress with strain rate and grain size in a magnesium alloy deformed at a constant strain rate and 450 °C can be predicted by a crystal plasticity model that includes grain boundary sliding and diffusion. The model predicts the grain size dependence of the critical strain rate that will cause a transition in deformation mechanism from dislocation creep to grain boundary sliding, and yields estimates for grain boundary fluidity and diffusivity.
Resumo:
The Gaussian-2, Gaussian-3, complete basis set- (CBS-) QB3, and CBS-APNO methods have been used to calculate ΔH° and ΔG° values for neutral clusters of water, (H2O)n, where n = 2−6. The structures are similar to those determined from experiment and from previous high-level calculations. The thermodynamic calculations by the G2, G3, and CBS-APNO methods compare well against the estimated MP2(CBS) limit. The cyclic pentamer and hexamer structures release the most heat per hydrogen bond formed of any of the clusters. While the cage and prism forms of the hexamer are the lowest energy structures at very low temperatures, as temperature is increased the cyclic structure is favored. The free energies of cluster formation at different temperatures reveal interesting insights, the most striking being that the cyclic trimer, cyclic tetramer, and cyclic pentamer, like the dimer, should be detectable in the lower troposphere. We predict water dimer concentrations of 9 × 1014 molecules/cm3, water trimer concentrations of 2.6 × 1012 molecules/cm3, tetramer concentrations of approximately 5.8 × 1011 molecules/cm3, and pentamer concentrations of approximately 3.5 × 1010 molecules/cm3 in saturated air at 298 K. These results have important implications for understanding the gas-phase chemistry of the lower troposphere.
Resumo:
The supermolecule approach has been used to model the hydration of cyclic 3‘,5‘-adenosine monophosphate, cAMP. Model building combined with PM3 optimizations predict that the anti conformer of cAMP is capable of hydrogen bonding to an additional solvent water molecule compared to the syn conformer. The addition of one water to the syn superstructure with concurrent rotation of the base about the glycosyl bond to form the anti superstructure leads to an additional enthalpy of stabilization of approximately −6 kcal/mol at the PM3 level. This specific solute−solvent interaction is an example of a large solvent effect, as the method predicts that cAMP has a conformational preference for the anti isomer in solution. This conformational preference results from a change in the number of specific solute−solvent interactions in this system. This prediction could be tested by NMR techniques. The number of waters predicted to be in the first hydration sphere around cAMP is in agreement with the results of hydration studies of nucleotides in DNA. In addition, the detailed picture of solvation about this cyclic nucleotide is in agreement with infrared experimental results.
Resumo:
The Gaussian-2, Gaussian-3, Complete Basis Set-QB3, and Complete Basis Set-APNO methods have been used to calculate geometries of neutral clusters of water, (H2O)n, where n = 2–6. The structures are in excellent agreement with those determined from experiment and those predicted from previous high-level calculations. These methods also provide excellent thermochemical predictions for water clusters, and thus can be used with confidence in evaluating the structures and thermochemistry of water clusters.
Resumo:
The Gaussian-3 method developed by Pople and coworkers has been used to calculate the free energy of neutral octamer clusters of water, (H2O)8. The most energetically stable structures are in excellent agreement with those determined from experiment and those predicted from previous high-level calculations. Cubic structures are favored over noncubic structures over all temperature ranges studied. The D2d cubic structure is the lowest free energy structure and dominates the potential energy and free energy hypersurfaces from 0 K to 298 K.
Resumo:
A series of CCSD(T) single-point calculations on MP4(SDQ) geometries and the W1 model chemistry method have been used to calculate ΔH° and ΔG° values for the deprotonation of 17 gas-phase reactions where the experimental values have reported accuracies within 1 kcal/mol. These values have been compared with previous calculations using the G3 and CBS model chemistries and two DFT methods. The most accurate CCSD(T) method uses the aug-cc-pVQZ basis set. Extrapolation of the aug-cc-pVTZ and aug-cc-pVQZ results yields the most accurate agreement with experiment, with a standard deviation of 0.58 kcal/mol for ΔG° and 0.70 kcal/mol for ΔH°. Standard deviations from experiment for ΔG° and ΔH° for the W1 method are 0.95 and 0.83 kcal/mol, respectively. The G3 and CBS-APNO results are competitive with W1 and are much less expensive. Any of the model chemistry methods or the CCSD(T)/aug-cc-pVQZ method can serve as a valuable check on the accuracy of experimental data reported in the National Institutes of Standards and Technology (NIST) database.