Die 10 zuletzt veröffentlichten Dokumente
Wandlungsbedarfs-Szenarien
(2024)
Wandlungsfähigkeit ist die Eigenschaft eines Systems, Änderungsbedarf außerhalb vorgehaltener Flexibilitätskorridore selbstständig zu erkennen und sich in möglichst kurzer Zeit und unter begrenztem Aufwand daran anpassen zu können. Die frühzeitige Auseinandersetzung mit dem Aufbau und dem Vorhalten von Wandlungsfähig-keit bietet Unternehmen viele Potenziale. So können sich spätere eventuelle Kosten in turbulenten Situationen drastisch reduzieren und einen Wettbewerbsvorteil gegenüber Konkurrenten sicherstellen. Auf der anderen Seite sind mit dem Erwerb bzw. dem Ausbau von Wandlungsfähigkeit Kosten verbunden, die zu nur schwer absehbaren Einsparungen führen. Entscheidungen für oder gegen Investitionen in die Erhöhung der Wandlungsfähigkeit müssen Unternehmen daher stets mit Bedacht treffen.
Das vorliegende Dokument versucht, diese Abwägung zu unterstützen, indem Unternehmen und Wissenschaft Denkanstöße für mögliche Veränderungsbedarfe gegeben werden. Hierfür wurden typische Veränderungsszenarien, die mit hoher Wahrscheinlichkeit Wandel nach sich ziehen, generiert, plausibilisiert und aufbereitet. Alle Szenarien sind unvorhergesehen, aber realistisch. So sollen Industrieunternehmen und Forschern handfeste Beispiele zur Verfügung gestellt werden, anhand derer bisherige Maßnahmen für Wandlungsfähigkeit überprüft und neue Notwendigkeiten identifiziert werden können.
Der Industriesektor nimmt aufgrund seiner hohen Stromnachfrage eine zentrale Rolle für eine erfolgreiche Gestaltung der Energiewende ein. Maßnahmen der industriellen Nachfrageflexibilität sind hierbei ein essentieller Baustein im zukünftigen Stromsystem aus volatilen Erzeugern. Während die Energiewende das Ziel einer CO2-Reduzierung verfolgt, liegt der Fokus bisheriger Potentialanalysen zu industrieller Nachfrageflexibilität auf energetischen Größen zu Leistung und Arbeit. In den vorliegenden Forschungsarbeiten wird das CO2-Vermeidungspotential industrieller Flexibilitätsmaßnahmen ausgehend von gegebenen technischen Potentialgrößen anhand einer geeigneten Methodik ermittelt. Die CO2-Reduzierung industrieller Flexibilitätsmaßnahmen ergibt sich dabei aus der Verschiebung von Arbeit aus Zeiträumern einer CO2-intensiven Stromerzeugung in Zeiträume niedriger spezifischer CO2-Emissionen.
Ausgehend von einer Potentialerhebung zu insgesamt 36 Flexibilitätsmaßnahmen aus 20 Branchen im Rahmen des Kopernikus-Projekts SynErgie wurde mit Hilfe einer ¼-stündlichen Modellierung möglicher CO2-Einsparungen ein CO2-Vermeidungspotential industrieller Nachfrageflexibilität für den gegenwärtigen Strommix in Höhe von ca. 700.000 t CO2 ermittelt. Unter Betrachtung zukünftiger Strommix-Szenarien steigt das CO2-Vermeidungspotential industrieller Nachfrageflexibilität bis zum Jahr 2030 zunächst an. Bis zum Jahr 2050 ist dieses hingegen moderat rückläufig. Erst bei einer abgeschlossenen Dekarbonisierung der Stromerzeugung ist ein Einbruch des CO2-Vermeidungspotentials zu beobachten. Als wesentliche Ursache des auch zukünftig stabilen CO2-Vermeidungspotentials industrieller Nachfrageflexibilität wird eine zunehmende Bedeutung von Emissionsspitzen aufgrund verbleibender fossiler Kraftwerke identifiziert. Es liegt daher nahe, dass insbesondere Lastverzicht (industrieller) Flexibilitätsmaßnahmen zur CO2-Reduzierung im zukünftigen Energiesystem eine wichtige Rolle zuteilwird.
Autonomous robots already have a broad spectrum of practical applications like autonomous delivery vehicles, warehouse, or service robots. The technology has also found its way into cars and is used for autonomous driving. As the technology behind it becomes more applicable, the question is what can a minimal autonomous robot setup look like and how does it work? This paper aims to answer that question by building a prototype capable of navigating toward objects with just one front camera, using the Robot Operating System (ROS) to control the robot and You Only Look Once (YOLO) for object detection. The paper describes different approaches to navigation and object detection and their challenges. It also goes into performance differences between YOLOv4 and YOLOv5. The outcome shows that it is possible to build such a minimal setup and that the best combination is a remote computer, which runs the object detection and sends commands to the robot for navigation. It also shows that YOLOv5 is much faster and more precise than YOLOv4. The biggest challenge, however, remains with computing and network performance. Even though YOLO is very resource-saving and fast, the results indicate that more computing power and network throughput would lead to more fluid navigation. The robot is a semester project conducted as part of the course Autonomous Mobile Robots at the University of Applied Sciences Mannheim.
The composition of the structure of the genetic code is undoubtedly one of the most challenging questions open in molecular biology. A promising element in solving this question is the evolutionary development of the structure of the genetic code. Therefore, the evolution of the genetic code has increasingly become the focus of the search for medical applications to cure and prevent hereditary diseases. To further promote such research, the main motivation of this dissertation is the theoretical identification of a factor influencing the evolution of the genetic code.
The first evolutionary hypothesis not disproved so far was published by Crick in 1968. His frozen accident theory states that the genetic code was generated by chance and has remained frozen ever since. However, most researchers working on the evolution of the genetic code today agree that such an efficient system cannot have appeared spontaneously. Hence, in recent years, new theories have been developed which claim to explain the origin of the genetic code. The most common ones are the stereochemical theory, the adaptive theory, and the co-evolution theory.
The influence factor analyzed in this dissertation is derived from the adaptive theory. This theory postulates that evolution aimed at obtaining a code that minimizes errors resulting from mutations. However, we do not claim that other theories such as the stereochemical theory and the co-evolution theory had no influence on the evolution of the genetic code. It is rather a matter of emphasizing properties of the genetic code that can only be assigned to the adaptive theory.
Summarized this work introduces properties of the genetic code which address the problems of retrieving, maintaining, and synchronizing the correct reading frame during the translation process. Translation is a subprocess of the protein synthesis. In this process the ribosome decodes the messenger RNA (sequence of nucleotides {A,C,G,T}) as codons (word of 3 nucleotides) to create a specific amino acid chain. Unfortunately, the mRNA can be decoded in three reading frames: 0, +1 and +2. Yet, only frame 0 encodes the correct information needed for the synthesis of proteins. The first practical evidence of a genetic model which can retrieve the correct reading frame is the so-called X-code. This X-code was obtained by Arqùes and Michel in a statistical evaluation of the codons in coding sequences of different species. Astonishingly, the X-code turned out to be a circular code. The advantages of circular genetic codes are incomparable. Such a circular code is a block code, i.e., a code consisting of words of a certain word length, which recognizes a reading frame error. This work introduces new properties of circular codes in general. These included the minimum sequence length to ensure the reading frame, a new classification of circular codes and new hypothetical processes inspired by the circular code theory to ensure the frameshift robustness during the translation process. With these findings, this dissertation presents a hypothetical guiding line which can be a valuable asset to the discovery of the evolution of protein synthesis.
Digitalisierung der Hochschulbildung – Gestaltungsmöglichkeiten und Potenziale der digitalen Medien
(2020)
Das Phänomen der Digitalisierung nimmt in der heutigen Zeit in allen Bereichen und Branchen einen hohen Stellenwert ein. Insbesondere in der akademischen Bildung sind sowohl die Treiber und Auswirkungen der Digitalisierung deutlich erkennbar. In diesem Kontext kann das Lehren und Lernen durch die Präsenzlehre, digitale Lehre oder einer Kombination beider Formen gesteuert und optimiert werden. Zum gegenwärtigen Zeitpunkt liegen digitale Technologien vor, die bereits vermehrt Anwendung finden, um beide Lehrstrategien zu unterstützen und zu fördern. Kontinuierlich werden neuere und modernere Technologien und Hilfsmitteln entwickelt, um das Lehren und Lernen zu vereinfachen. Allerdings wird das volle Potential dieser Technologien in der akademischen Bildung noch nicht vollständig ausgeschöpft. Gründe hierfür liegen unter anderem in der Akzeptanz gegenüber den neuen digitalen Instrumenten, der technischen, rechtlichen, personellen und datenschutzrechtlichen Umsetzbarkeit der Technologien.
Um das IT-Security-Bewusstsein sowie die Umsetzungsbereitschaft für die nötigen Sicherheitsmaßnahmen bei kleinen und mittleren Unternehmen (KMU) zu stärken, das IT-Sicherheitsniveau der KMU zu erhöhen und um dadurch jährlich immense Schäden für die deutsche Wirtschaft zu vermeiden, veranlasste das Bundesministerium für Wirtschaft und Energie, die Etablierung einer Transferstelle für IT-Sicherheit. Diese soll geeignet-aufbereitete Schulungen, Handlungsempfehlungen und Angebote an die Unternehmen vermitteln und somit ihr Sicherheitspotenzial erhöhen. Die Vermittlung soll u.a. digital, durch den "Sec-O-Mat" erfolgen - eine Software, deren Aufgabe es ist, anhand von Fragen, den konkreten Sicherheitsbedarf der Firmen zu ermitteln und an diese daraufhin passende Sicherheitsmaßnahmen bereitzustellen. Diese Arbeit dient gleichzeitig als Konzept-Dokumentation für diese - nach aktuellen Recherchen - neuartige Applikation, die bis dato in dieser Form noch nicht entwickelt wurde und beschreibt die Implementierung von horizontalen und vertikalen Prototypen. Es werden ebenfalls das Projekt "TISiM" und das für die Einrichtung der Transferstelle verantwortliche Konsortium vorgestellt. Im Abschluss findet eine Diskussion der Ergebnisse statt.
The processor flaws used in the Spectre and Meltdown attacks have had uncharacteristically large media impact, even gaining coverage in main-stream media. This is despite the fact that this type of exploit has not been used in any real world attacks and is unlikely to target consumers, as simpler attack vectors still remain highly effective. However, because Spectre affects any processor which uses speculative execution, with little hope for a "silver bullet" in the near future, Spectre seems to be here to stay. While Spectre might not be very relevant to the consumer market, it is quite relevant where safety is usually paramount: the cloud. It promises cost reduction and safety through offloading maintenance and updating tasks to gigantic providers like Amazon’s AWS. But how secure can the most up-to-date platform be, if the used hardware is inherently flawed to the core? This paper provides a high level explanation of the Spectre attack, shows potential Spectre attack vectors in a shared cloud environment and discusses some defensive measures.
In dieser Masterarbeit ist die Konzeption eines Blockchain-basierten Triple-A-Systems und die Implementierung einer Erweiterung des Extensible Authentication Protocols (EAP; deutsch: Erweiterbares Authentifizierungsprotokoll) [RFC3748] in Form einer EAP-Methode beschrieben.
Die EAP-Methode wird hierbei als Authentifizierungsprotokoll für den WLAN-Zugriff nach IEEE 802.1X [RFC3580] genutzt.
Die Blockchain Ethereum bildet dabei die Plattform für das Backend des Triple-A-Systems (AAA-Systems; Authentifizierungs-, Autorisierungs- und Abrechnungs-Systems), in Form eines Smart-Contracts.
Using TaC filaments for a hot-wire chemical vapor deposition (HWCVD) compact material (substrate temperatures 220°C) and porous, non-compact or void-rich layers (120°C) were produced in a silane-hydrogen atmosphere in the pressure range from 1 Pa to 30 Pa. For high pressures the adhesion of the layers was weak. In this case the thus pulverized silicon particles could be removed from the substrate by an ultrasonic process in an isopropanol bath. The suspension of these silicon particles was spread to form a continuous film, namely a "particle-film".
The infrared (IR) spectra of the compact solid, the original porous layers and a series of temper stages of the particle-films are compared and discussed. The role of H and O atoms in the silicon network is investigated. Thus those structural properties, which may be found out by infrared tools, e.g. the bonding configurations of the Si related bonds of the said materials and some possible chemical reactions are explained.