ADM Lösungen

ADM Lösungen

  • Autonome Fahrzeuge bzw. selbstfahrende Autos arbeiten mithilfe künstlicher Intelligenz, die wiederum aus selbstlernenden Algorithmen besteht. Das klingt bis dahin noch relativ unspektakulär. Allerdings entstehen diese Algorithmen nicht alleine in Form von Datenbanken. Sie müssen durch praktische Übung verbessert werden, damit ein autonomes Fahrzeug tatsächlich irgendwann komplett automatisch fahren kann. Die unterschiedlichen Verkehrssituationen müssen praktisch eingeübt werden, sodass die Algorithmen sie bei der nächsten Fahrt auch erkennen, um angemessen darauf reagieren können. Genau hier liegt eines der Hauptprobleme der autonomen Fahrzeuge. Datenermittlung unterwegs oder Übung macht den Meister Künstliche Intelligenz als die Grundlage für das autonome Fahren muss hohe Anforderungen erfüllen. Sie muss in der Lage sein, freien Raum ebenso zu erkennen wie verschiedene Objekte, die im Straßenverkehr immer wieder auftauchen und natürlich andere Verkehrsteilnehmer, zum Beispiel Fußgänger, Autos und Radfahrer. Die künstliche Intelligenz muss außerdem in der Lage sein, auf bestimmte Verkehrssituationen entsprechend zu reagieren. Dazu muss das System allerdings erst einmal eine bestimmte Verkehrssituation richtig erkennen können. Das funktioniert nur, wenn möglichst viele Kilometer gefahren und auf diese Weise für die entsprechenden „Erfahrungen“ die Daten empirisch ermittelt werden können. Hier tun sich die meisten Hersteller bisher noch sehr schwer. Lediglich einige Internetkonzerne wie zum Beispiel Google haben ihre Vorteile. Deren Tochterfirmen testen autonom fahrende Autos bereits seit mehreren Jahren auf öffentlichen Straßen. Der dabei entstandene Datenbestand ist äußerst wertvoll und trägt wesentlich dazu bei, die künstliche Intelligenz fit fürs autonome Fahren zu machen. Autonomes Fahren besteht aus mehreren Teilbereichen Die künstliche Intelligenz muss beim autonomen Fahren eines Fahrzeuges gleich mehrere Bereiche beherrschen. Zum Teil werden diese Bereiche auch in anderen Technologien wie beispielsweise bei der Bewegungssteuerung von Robotern eingesetzt. Hier sind einige Beispiele für solche benötigten Bereiche: Die automatisierte Erkennung von Gesichtern oder Lebewesen ist eine der wichtigsten Fähigkeiten, welche die künstliche Intelligenz beherrschen muss Bei der notwendigen Fahrpraxis müssen sehr viele Daten in Echtzeit verarbeitet werden, daher sind sehr hohe Speicherkapazitäten und entsprechende Rechengeschwindigkeiten notwendig Außerdem sind leistungsfähige Chiptechnologien notwendig, um eine Datenverarbeitung aus Kameras, Sensoren oder Lasern zu ermöglichen Es müssen stets aktuelle Basisdaten vorhanden sein wie zum Beispiel hochauflösende Straßenkarten, die unbedingt aktuell gehalten werden müssen. Dies sind nur einige Beispiele für die wichtigsten Teilbereiche, aus denen das autonome Fahren besteht. Die Erkennung von Bildern und die Verarbeitung von Daten sowie die Verarbeitung von Daten aus anderen Sensoren des Fahrzeugs ist allerdings nicht alles. Das Lernen spielt eine wesentliche Rolle beim autonomen Fahren Beim autonomen Fahren nehmen Kameras Bilder von der Straße oder aus der näheren Umgebung auf, weitere Daten kommen aus verschiedenen Sensoren. Diese Sensoren müssen einerseits in Echtzeit analysiert werden, andererseits müssen sie stets verlässliche Ergebnisse liefern. So muss die KI im Fahrzeug beispielsweise in der Lage sein, jederzeit Fußgänger oder andere Hindernisse auf der Straße zu erkennen, und das möglichst schnell, um ausreichend schnell reagieren zu können. Die im Fahrzeug eingesetzten Computer müssen anhand riesiger Datenmengen lernen, wie ein Mensch oder ein anderes Lebewesen aussieht. Diese Daten stammen in der Regel aus bereits aufgetauchten Verkehrssituationen. Die Intelligenz im Fahrzeug muss in der Lage sein, sich diese Situationen anzueignen und nach Abschluss der Lernphase im Fahrzeug selbstständig anzuwenden. Wichtig dabei ist es allerdings, dass die einzelnen Beispiele nicht nur auswendig gelernt werden, sondern dass die künstliche Intelligenz mithilfe ihrer Algorithmen Muster und Gesetze in den entsprechenden Lerndaten erkennen und auswerten kann. Eine besondere Schwierigkeit dabei besteht darin, dass gewisse Umstände für Veränderungen der Bilddaten sorgen. Menschen können aufgrund anderer Kleidung im Winter ganz anders aussehen als im Sommer. Ähnliches gilt für andere Bilddaten, die im Sommer ganz anders wirken als zu einer anderen Jahreszeit. Das System muss jederzeit in der Lage sein, Objekte in verschiedene Kategorien zu unterteilen wie etwa Fahrbahn, Fahrzeuge oder Fußgänger. Alle diese Objekte müssen voneinander getrennt und jederzeit eindeutig erkannt werden können. Erschwert werden diese notwendigen Datenerfassungen durch äußere Einflüsse wie beispielsweise starken Regen, Schneefall oder Staub und Nebel. Fazit zum autonomen Fahren mithilfe künstlicher Intelligenz Künstliche Intelligenz wird die Entwicklung des autonomen Fahrens sehr stark vorantreiben. Allerdings braucht man sehr gute Software und eine enorme Rechenleistung, um alle notwendigen Daten in Echtzeit verarbeiten zu können. Was dem Menschen wie die normalste Sache der Welt vorkommt, ist für Computertechnologien eine enorme Herausforderung. Es ist noch sehr viel an Entwicklungsarbeit notwendig. Allerdings ist die praktische Übung genauso wichtig für automatisch fahrende Autos wie für den Menschen.

  • Edelstahl ist heute eines der beliebtesten Materialien zur Verarbeitung von hochwertigen Arbeitsmitteln, technischen Geräten und nicht zuletzt robusten und hochwertigen Produkten für die Lebensmittelindustrie. Dabei handelt es sich bei dem Wort Edelstahl eigentlich mehr einen Sammelbegriff. Er umfasst mehr als 160 verschiedene Stahlarten, die auch als Legierungsstähle bezeichnet werden. Das Material ist nicht unbedingt rostfrei, wie oft vermutet wird. Erst durch die Zugabe von Stoffen wie Chrom bildet sich eine schützende Schicht an der Oberfläche, die eine Rostbildung verhindert und dabei äußerst stark beanspruchbar ist. Eigenschaften und Vorteile von Edelstahl Das Material Edelstahl hat nicht ohne Grund den Ruf, äußerst robust und gerade für den professionellen Einsatz im Lebensmittelbereich besonders gut geeignet zu sein. Es lässt sich sehr gut für die Herstellung von Produkten für hygienisch anspruchsvolle Bereiche innerhalb der Medizintechnik oder Lebensmittelindustrie verwenden. Edelstahl kann aber noch mehr. Er wird häufig auch in vielen anderen Bereichen innerhalb der Industrie eingesetzt. Es gibt heute zahlreiche professionelle Arbeitsmittel und Geräte, die mit einem hochwertigen Gehäuse aus Edelstahl ausgestattet werden und daher bei der Verwendung einige Vorteile bieten, darunter zum Beispiel die folgenden: Je nach verwendeter Legierung sind die aus dem Material hergestellten Gegenstände fast unkaputtbar. Sie werden daher bevorzugt in rauen Arbeitsumgebungen eingesetzt. Die Oberflächen aus Edelstahl sind sehr gut zu pflegen und gelten als überaus hygienisch, weshalb das Material bevorzugt im Lebensmittelbereich eingesetzt wird oder überall dort, wo es keimfrei zugehen muss. Die richtige Vorbehandlung bzw. Legierung vorausgesetzt, ist Edelstahl unanfällig für Rost, je nach Edelstahlart auch beständig gegen verschiedene Chemikalien oder sogar einige säurehaltige Substanzen. Edelstahl der Art V4A (im Gegensatz zum herkömmlichen V2A-Material) besitzt eine noch bessere Korrosionsbeständigkeit. Im Industrieeinsatz von besonderem Vorteil sind Eigenschaften wie eine sehr hohe Temperaturbeständigkeit, Langlebigkeit und die Eigenschaft, wartungsarm zu sein. Edelstahl lässt sich ohne Probleme schweißen und ist elektrisch leitfähig, was in vielen Bereichen von Vorteil ist, beispielsweise bei der Herstellung von elektrischen Komponenten mit Gehäusen aus Edelstahl (beispielsweise wegen der Abschirmung). Die Zugabe von Zusatzstoffen macht es aus Edelstahl gibt es bereits seit dem Anfang des vergangenen Jahrhunderts. Die Kombination einer speziellen Wärmebehandlung und die Verwendung von Zusatzstoffen wie Nickel oder Chrom führten bei den ersten Materialien dieser Art zu einer sehr guten Korrosionsbeständigkeit bei gleichzeitig sehr guten mechanischen Eigenschaften. Dies sind Produktmerkmale, die auch heute noch maßgeblich für die Verwendung dieser Materialien sind. Dennoch gibt es mittlerweile eine nahezu unübersichtlich große Anzahl von verschiedenen Edelstahlarten bzw. Legierungen. Wie schon angedeutet, sind nicht alle davon rostfrei. Diese Eigenschaft entsteht erst aufgrund einer chemischen Reaktion, die durch den Chromgehalt des Edelstahls in Verbindung mit dem Sauerstoff in der Luft an der Oberfläche des Metalls auftritt. Selbst bei einer Beschädigung dieser sogenannten Passivschicht bildet sich diese Schutzschicht innerhalb kürzester Zeit wieder neu. Eine nochmalige Verbesserung der Korrosionsbeständigkeit kann durch die Zugabe von einigen weiteren Stoffen erreicht werden wie etwa Nickel oder Molybdän sowie einige andere Legierungsmittel, die ganz gezielt auf spezielle Anforderungen zugeschnitten zum Einsatz kommen können. Die verschiedenen Edelstahlarten Hierzulande werden zur Unterscheidung von verschiedenen Eigenschaften der Edelstähle zwei Oberbegriffe verwendet. V2A ist ein sehr häufig verwendeter Edelstahl. Er kann zum Beispiel beim Bau von Außeneinrichtungen (Geländer, Fahrzeuge oder ähnlichen Dingen) eingesetzt werden. Aber auch Spülbecken oder andere Dinge in der Lebensmittel-, Getränke-, Pharma- oder Kosmetikindustrie werden oft aus V2A-Edelstahl angefertigt. V4A ist eine Bezeichnung für einen dem V2A ähnlichen Edelstahl, dieser besitzt aber einen Zusatzstoff namens Molybdän mit einem Anteil von rund zwei Prozent. Dadurch wird der Edelstahl mit der Bezeichnung V4A wesentlich widerstandsfähiger gegen Korrosion. Diese Art kommt zum Beispiel in der chemischen Industrie zum Einsatz, aber auch zur Verwendung in Gegenständen, die beständig gegen Salzwasser sein müssen wie etwa Einrichtungen oder Gegenstände in Schwimmbädern. Es gibt noch viele andere Arten von besonders hochwertigen und korrosionsbeständigen Edelstählen, beispielsweise solche mit Handelsnamen wie Alloy, einem Stoff, der einen geringeren Eisenanteil enthält. Die meisten der Edelstähle sind einer der genannten Gruppen zuzuordnen. Sie zeichnen sich durch ein sehr gutes Preis-Leistungs-Verhältnis aus. Rostfreie Haushaltsgegenstände werden daraus ebenso hergestellt wie hochbelastete Industrieanlagen oder Gegenstände, die besonders haltbar und beständig gegen äußere Einflüsse sein müssen. Weitere Unterscheidungen gibt es im Anteil des im Edelstahl enthaltenen Chroms, im Molybdänzusatz sowie in der Zugabe von anderen Zusatzstoffen und in der Verarbeitung der Materialien. Hier sind einige Beispiele mit häufigen Anwendungsgebieten: WNr. 1.4003: korrosionsbeständiger Edelstahl mit Chrom- und Nickelzusätzen, sehr abtriebfest, leicht zu verarbeiten (schweißen, Formbarkeit), Verwendung im Nutzfahrzeugbau, in der Agrartechnik, im Konstruktionsbereich und im Bau von Apparaten und Maschinen WNr. 1.4006: sehr gute mechanische Eigenschaften und ebenfalls gute Korrosionsbeständigkeit, etwas höherer Chromgehalt, beständig gegen gemäßigte aggressive und chloridfreie Medien, vor allem mit einer geglätteten Oberfläche, Verwendung im Maschinenbau, Apparatebau und in Kücheneinrichtungen WNr. 1.4016: noch höherer Chromanteil, Verwendung von höheren Anteilen an nicht rostenden Stählen, sehr gut beständig gegen Wasser und Wasserdampf sowie schwache Säuren und Laugen, gut geeignet für die Verwendung im Gastgewerbe, in der Produktion von Nahrungsmitteln und Getränken, in der Medizintechnik und in der chemischen Industrie WNr. 1.4021: ein sogenannter Vergütungsstahl mit einer Chromlegierung und einem mittleren Kohlenstoffgehalt, Verwendung ausschließlich im vergüteten Zustand, gute Korrosionsbeständigkeit nur bei geschliffener Oberfläche, Verwendung für Bauteile mit einer mittleren Festigkeit, die Wasser oder Feuchtigkeit ausgesetzt sind wie Pumpen, Messer, Haushaltsgeräte oder medizinische Instrumente Fazit: Edelstahl ist pflegeleicht und widerstandsfähig Es gibt noch viele andere Arten bzw. Legierungen, deren Aufzählung aber den Rahmen dieses Artikels sprengen würde. Zusammenfassend lässt sich sagen, dass Edelstahl besonders in Bereichen eingesetzt wird, wo raue Umgebungsbedingungen herrschen und wo die Materialien besonders beständig und pflegeleicht sein müssen. Der Edelstahl weist somit einige Vorteile gegenüber anderen Stoffen auf wie beispielsweise Kunststoffen oder natürlichen Materialien wie Hölzern oder den meisten auf andere Weise behandelten Metallen.

  • Die LED setzt auf eine komplett andere Art der Lichterzeugung als die klassische Glühlampe oder eine Energiesparlampe mit einer Leuchtstoffröhre. Das Licht wird in einem Halbleiterchip erzeugt, und das auf höchst effiziente Art und Weise und ohne die sonst so starke Wärmeentwicklung. Weniger Hitzeentwicklung als andere Leuchtmittel Bei einer herkömmlichen Glühlampe oder einer Halogenlampe entsteht neben dem eigentlichen Licht hauptsächlich eines: Hitze. Genau hier kann die Leuchtdiode als moderne Lichtquelle ihre Vorteile ausspielen. Sie emittiert Licht (LED = light emitting diode = Licht emittierende Diode), wenn das Halbleitermaterial von einem elektrischen Strom durchflossen wird, ganz im Gegensatz zu einer herkömmlichen Diode, welche wie die LED den Strom übrigens ebenfalls nur in einer Richtung fließen lässt. In der Lichttechnik bezeichnet man diesen Vorgang als Elektrolumineszenz. In modernen Leuchtmitteln wie beispielsweise LED-Strahlern, LED-Lampen im klassischen glühlampenförmigen Gehäuse oder in Form einer Hintergrundbeleuchtung für Bildschirme werden in der Regel viele LEDs zu einer Beleuchtungseinheit zusammengefasst, da eine einzelne LED in der Regel keine so große Lichtstärke erzeugen kann. Dabei hat die LED gerade in den letzten Jahren erheblich an Leuchtkraft und damit auch an ihrer Bedeutung als Leuchtmittel gewonnen. Werkstoffe und Farben bei modernen LEDs Anders als bei Glühlampen, welche mit beliebigen Farben lackiert werden können, hängt bei den LEDs die Leuchtfarbe im Wesentlichen von den verwendeten Halbleitermaterialien ab. Aus diesem Grunde gab es auch zunächst nur LEDs mit bestimmten Leuchtfarben. Blaue LEDs gab es zum Beispiel eine sehr lange Zeit gar nicht, da die hierfür benötigten Materialien erst später als geeignete Halbleitermaterialien für die Bauteile entdeckt wurden und eingesetzt werden konnten. Heute sind LEDs in allen denkbaren Farben erhältlich, von verschiedenen Rottönen über Orange, Gelb, Grün und Blau bis hin zu Violett und Weiß. Infrarot-, Ultraviolett- und RGB-LEDs Auch LEDs mit Infrarotlicht oder ultravioletter Strahlung können hergestellt werden. In vielen Bereichen werden auch LEDs eingesetzt, die verschiedene Halbleiterchips in einem Gehäuse enthalten und durch die Kombination verschiedener LEDs nahezu alle möglichen Farben des RGB-Farbraumes erzeugen können. Oft werden diese LEDs in Objekten für Dekorationszwecke eingesetzt, beispielsweise mit automatischen Farbwechseln. Spezial-LEDs mit Infrarotlicht beispielsweise kommen schon seit sehr langer Zeit in Fernbedienungen zum Einsatz, wo sie mithilfe von Infrarotlicht die Schaltbefehle von der Fernbedienung zum Empfänger (beispielsweise einem Fernsehgerät) übertragen. Als Empfänger dienen wiederum lichtempfindliche Halbleiterbauteile in Form von Fotodioden oder Fototransistoren. Von den ersten LEDs bis zu modernen blauen und weißen LEDs Eine sehr lange Zeit lang gab es LEDs ausschließlich in den Farben Rot, Gelb und Grün. Blaue oder gar weiße LEDs gab es noch vor wenigen Jahrzehnten gar nicht zu kaufen. Erst etwa Ende der achtziger bzw. Anfang der neunziger Jahre kamen die ersten LEDs mit blauer Leuchtfarbe auf den Markt. Allerdings lies deren Helligkeit anfangs noch stark zu wünschen übrig. Weiße LEDs gab es noch später. Aber erst mit diesen Bauteilen wurde die LED für die meisten Beleuchtungszwecke erst interessant, natürlich nur bei einer erheblichen Weiterentwicklung der Leuchtstärke, die aber in den folgenden Jahren rasant zunehmen sollte. Ab dem Anfang der zweitausender Jahre stieg die Leuchtkraft innerhalb kürzester Zeit sehr stark an, weshalb die LED sich neue Einsatzgebiete sichern konnte wie etwa Beleuchtungszwecke, am Anfang hauptsächlich als Hintergrundbeleuchtung für Displays in unterschiedlichen Leuchtfarben. Schließlich konnte die Leuchtstärke soweit erhöht werden, so dass erstmalig auch Einsatzgebiete als richtige Leuchtmittel und als Glühlampenersatz möglich wurden. Der Energiebedarf und die Leuchtkraft im Vergleich mit der Glühlampe Der Hauptvorteil einer LED gegenüber einer klassischen Glühlampe besteht darin, dass die LEDs bzw. mit LEDs bestückte Leuchtmittel über eine wesentlich höhere Lichtausbeute verfügen als herkömmliche Glühlampen. Sie gelten als etwa zehn- bis zwölfmal so effizient wie Glühlampen und immer noch deutlich effizienter als Leuchtstoffröhren oder Halogenlampen. Mit der Einführung von mit LEDs bestückten Leuchtmitteln musste die Lichtstärke bzw. der Lichtstrom oder die Leuchtkraft etwas anders definiert werden. Bei den herkömmlichen Glühlampen wurde in der Regel die Leistung in Watt angegeben. Allerdings ist diese Angabe bei einer LED nur wenig aussagekräftig in bezug auf die tatsächliche Lichtleistung. Folgende Begriffe haben sich inzwischen eingebürgert: der Lichtstrom in Lumen (abgekürzt lm) die Beleuchtungsstärke in Lux Der Lichtstrom einer LED Interessant ist vor allem der Lichtstrom, der in Lumen (lm) angegeben wird. Er wird in der Regel verwendet, um die Leuchtstärke einer LED zu klassifizieren. Als Vergleich dient wieder die gute alte Glühlampe, welche bei einer Leistung von 40 W einen Lichtstrom von etwa 430 lm erzeugt. Ein Leuchtmittel mit LEDs, welches den gleichen Lichtstrom erzeugt, ist von seiner Leuchtstärke her vergleichbar mit einer Glühlampe, die eine Leistung von 40 W hat. Dieser Lichtstrom kann also als Vergleich genommen werden, um Aussagen über die Leuchtkraft von LEDs zu treffen. Die Lebensdauer und die deutlich geringere Hitzeentwicklung Die wesentlich geringere Wärmeentwicklung wurde bereits angesprochen. Sie rührt daher, dass eine LED einen wesentlich höheren Wirkungsgrad hat, also wesentlich größere Anteile der ihr zugeführten elektrischen Leistung im Licht umwandelt, statt in Wärme. Schließlich besitzt eine Glühlampe einen Glühfaden, der zunächst einmal Hitze erzeugt, die so hoch ist, dass schließlich das sehr starke Glühen zur Lichterzeugung genutzt werden kann. Die LED funktioniert komplett anders und nutzt wesentlich mehr Energie zur Lichterzeugung. Allerdings entsteht auch hierbei etwas Wärme, die gegebenenfalls durch einen Kühlkörper abgeleitet werden muss, genauso wie bei anderen Halbleiterbauteilen wie beispielsweise Transistoren auch. Ein wesentlicher Punkt ist aber auch die Lebensdauer, die bei einer LED in der Regel wesentlich höher ist als bei einer Glühlampe. Außerdem brennt eine LED nur selten mit einem Schlag durch. Vielmehr nimmt deren Leuchtstärke im Lauf der Zeit kontinuierlich ab. Sie gilt meist dann als defekt, wenn die Leuchtstärke um mehr als die Hälfte gesunken ist. Einsatzbereiche moderner LED-Leuchtmittel LEDs kommen heute fast überall dort zum Einsatz, wo früher ausschließlich Glühlampen oder Halogenlampen sowie Leuchtstofflampen eingesetzt werden konnten. Hier sind einige mögliche Einsatzgebiete: Hintergrundbeleuchtungen für Displays Leuchtmittel für Raumbeleuchtungen Beleuchtungseinrichtungen in Kraftfahrzeugen Beleuchtungen für Projektoren und Beamer Ampeln sowie sonstige Verkehrseinrichtungen Beleuchtungen für Schilder Straßenbeleuchtungen Kontrollleuchten Leuchtschriften und Leuchtanzeigen (beispielsweise Laufschriften und Reklameanzeigen) Die LED und die Energiewende Heute ist ein sparsamer Umgang mit Ressourcen und Energien angesagt. Deswegen muss elektrischer Strom möglichst durch erneuerbare Energien mehr …

  • Die so genannte Near Field Communication, kurz NFC, ist ein international genutzter Übertragungsstandard für den kontaktlosen Austausch von Daten über die elektromagnetische Induktion. Es handelt sich um eine so genannte Nahfeldkommunikation, bei der über lose gekoppelte Spulen über sehr kurze Strecken Daten elektronisch übertragen werden können, und zwar innerhalb von wenigen Zentimetern bei relativ geringen Datenübertragungsraten. Eingesetzt wurde dieses System bisher hauptsächlich für kontaktlose Zahlungen kleinerer Beträge. Weitere, heute übliche Anwendungsgebiete bestehen beispielsweise aus dem Austausch von Authentifizierungsdaten für den Aufbau einer Kommunikation über gesicherte Kommunikationswege. Ganz neu sind verschiedene Anwendungsmöglichkeiten im Bereich des Internets der Dinge, nicht zuletzt auch deshalb, weil es sich um eine recht preiswert umzusetzende Nahbereichskommunikation handelt, die auf zahlreichen Geräten problemlos umgesetzt werden kann, um einfache Daten auszutauschen. NFC und RFID und die Unterschiede Die Nahfeldkommunikation NFC ist genau genommen ein Ableger der so genannten RFID-Technologie in, also der „Radio Frequency Identification“, bei der ein Lesegerät ein elektromagnetisches Feld aussendet, welches von einem RFID-Chip empfangen wird. Die bei dieser Übertragung entstehende Energie nutzt der Empfängerchip über eine Antenne zum Umsetzen der empfangenden Befehle. Dadurch wird das Feld des Senders geschwächt oder ein speziell moduliertes Signal gegenphasig reflektiert, ein Verfahren, durch das ein Lesegerät die jeweils gespeicherten Informationen lesen kann. Die neuere NFC-Technologie arbeitet im Gegensatz zu RFID um einiges sicherer, weshalb im Moment hauptsächlich Zahlungen über das neue System durchgeführt werden. Auch ein Datenaustausch zwischen mobilen Endgeräten über NFC ist möglich, zum Beispiel für den Datenaustausch von Links, Kontaktdaten oder Fotos. Was diese beiden Technologien für die Entwicklung der Industrie 4.0 bedeuten Relativ einfache Technologien wie NFC und RFID können die Entwicklung der industriellen Revolution und Bereichen wie der Industrie 4.0 wesentlich unterstützen, besonders im Zusammenspiel mit der Vernetzung von Objekten mit dem Internet, der selbstständigen Kommunikation von verschiedensten Objekten innerhalb der Industrie über das Internet und der Verfügbarkeit aller wichtigen Informationen in Echtzeit. Sehr einfache Technologien wie NFC und RFID tragen auch ihren Teil dazu bei, unterstützen sie doch die Kommunikationsfähigkeit von Maschine zu Maschine (M2M). So lassen sich beispielsweise eindeutige Identifikationen durchführen sowie produktbezogene Informationen auf relativ einfache Weise übertragen, und das auch über eine gewisse räumliche Entfernung. Die RFID kann dabei Produkte eindeutig identifizieren, beispielsweise innerhalb einer Produktionsstraße. NFC im Bereich Industrie 4.0 nutzen Es lassen sich auf nahezu alle möglichen Anwendungszwecke spezifizierte Transponder entwickeln, die sich in nahezu allen möglichen Umgebungen einsetzen lassen, auch in Produktionsstraßen oder in Anwendungsbereichen, in welchen die Geräte Staub und Schmutz ausgesetzt sind. Die Transponder lassen sich je nach Anforderung durch verschiedene Frequenzen auch auf bestimmte Bereiche anpassen. Der Vorteil der Nutzung dieser Geräte für die Nutzer besteht darin, dass es sich um eine bereits etablierte und verlässliche Technologie handelt, was sich nicht zuletzt durch die häufige Nutzung bei der kontaktlosen Zahlung zeigt. Fazit: Manchmal sind die einfachsten Technologien auch die zuverlässigsten und besten, was gerade im Bereich der Industrie 4.0 oder in modernen Industriebetrieben wichtig ist. Robuste Technologien werden hier immer gebraucht, besonders für die mobile Datenübertragung oder Identifizierung einzelner Objekte innerhalb von Produktionsstraßen oder in laufenden Fertigungsprozessen.

  • Die vorausschauende Wartung bzw. vorausschauende Wartungsintervalle, zeitgemäß als Predictive Maintenance bezeichnet, ist eine sehr wichtige Instandhaltungstechnologie im Bereich des Maschinenbaus und der Industrie 4.0. Der Zustand von Geräten und Maschinen wird während des Betriebes laufend überwacht, um genau festzulegen, wann Wartungen oder Reparaturarbeiten stattfinden sollen. Die Strategie der Wartung zum richtigen Zeitpunkt soll helfen, Kosten zu sparen und Ausfälle von Maschinen oder anfallende Wartungsarbeiten zu ungünstigen Zeitpunkten zu verhindern. Hierbei kommt auch künstliche Intelligenz zum Einsatz, beispielsweise in Form der Auswertung von Daten aus der Vergangenheit zur Voraussage von anfallenden Wartungs- und Reparaturarbeiten aufgrund von Erfahrungswerten. Predictive Maintenance als vorbeugende Wartungsmaßnahme Normalerweise werden Wartungen an Maschinen oder Anlagen im Bereich der Industrie zu fest vorgegebenen Zeitpunkten durchgeführt. Reparaturen erfolgen dann, wenn sie aufgrund verschlissener oder defekter Teile notwendig sind. Nicht immer passen jedoch diese Reparaturen oder Wartungsarbeiten in das Zeitmanagement und werfen Rentabilitätspläne im Bereich der Industrie über den Haufen. Predictive Maintenance soll helfen, Kosteneinsparungen gegenüber der routinemäßigen, intervall- oder zeitbasierenden und vorbeugenden Wartungen herbeizuführen. Es handelt sich um eine Art zukunftsbasierte Instandhaltung, bei der Erfahrungswerte aus vergangenen Wartungsintervallen hinzugezogen werden, um die nächste, voraussichtlich notwendige Reparatur oder Wartung zu einem Zeitpunkt durchführen zu können, an dem dies wirtschaftlich günstig ist. Predictive Maintenance soll also deutliche Vorteile gegenüber der bisher durchgeführten, routinemäßigen Wartungsarbeiten bringen wie zum Beispiel folgende: Maschinenausfälle oder ungeplante Stillstände innerhalb der Produktion vermeiden Ausfälle von Maschinen aufgrund verschlissener Ersatzteile vorhersagen und Reparaturen vor dem Ausfall zu einem günstigen Zeitpunkt durchführen längere Ausfallzeiten aufgrund von Defekten verhindern helfen die Wartungsintervalle nach den betrieblichen Anforderungen ausrichten Es geht also im Wesentlichen um eine vorausschauende Instandhaltung aufgrund einer kontinuierlichen Zustandsüberwachung, die über Echtzeitdaten der Maschinen, Geräte oder Anlagen erfolgen soll. Man spricht hier von Condition Monitoring. Über einen längeren Zeitraum werden verschiedene Messwerte und Produktionsdaten gesammelt, bewertet und zu einem Machine-Learning-Algorithmus weiterverarbeitet. Nun werden aufgrund von historischen Defekten und daraus erhaltenen Daten Berechnungen über die Wahrscheinlichkeit eines neuen Ausfalls angestellt. Aufgrund dieser Vorhersage kann das Wartungspersonal rechtzeitig reagieren und den Ausfall der Maschine verhindern. Die Abgrenzung zu traditionellen Wartungsmethoden Predictive Maintenance weist einen vorausschauenden Charakter auf und unterscheidet sich damit deutlich von den bisher am meisten angewandten Wartungsansätzen. Diese verfolgten traditionell eher reaktiv, also als Reaktion auf aufgetretene Probleme oder Störungen. Die reaktive (traditionelle) Wartung ist relativ einfach umzusetzen, birgt aber ein ziemlich hohes Risiko. Defekte treten bekanntermaßen meist dann auf, wenn es am wenigsten passt. Ebenso fallen oft Wartungsarbeiten immer dann an, wenn der Zeitpunkt dafür denkbar ungünstig ist. Analysen der Probleme oder Aktionen zur Störungsbeseitigung erfolgen erst dann, wenn es bereits passiert ist. Maschinenausfälle können also nicht verhindert werden und haben mitunter erhebliche Ausfallzeiten zur Folge. Im ungünstigsten Fall sind die benötigten Ersatzteile erst nach dem Eintreten einer Störung bestellbar, was Ausfälle wegen zusätzlicher Lieferzeiten zur Folge hat. All diese unangenehmen Begleiterscheinungen sollen durch die präventive Wartung und die Vorhersage von möglichen Ausfällen aufgrund von Erfahrungswerten verhindert werden. Außerdem soll verhindert werden, dass Teile ausgetauscht werden, die noch einwandfrei funktionieren und über einen langen Zeitraum eingesetzt werden können. Die Erfahrungswerte spielen also eine sehr große Rolle, um einerseits Kosten zu optimieren und Störungen wirksam zu verhindern. Predictive Maintenance macht es möglich, den optimalen Zeitpunkt für die präventive Wartungsmaßnahme zu finden, damit diese weder zu früh noch zu spät erfolgt. Die Berechnungen finden mithilfe künstlicher Intelligenz statt. Big Data und Predictive Maintenance Um die vorausschauende Wartung verlässlich durchführen zu können und um möglichst genau Vorhersagen über den Zustand von Maschinen oder Anlagen zu treffen, müssen sehr große Datenmengen gesammelt werden. Diese müssen anschließend mithilfe intelligenter Algorithmen analysiert und weiterverarbeitet werden. Das Problem dabei: Die in vielen Anlagen oder Maschinen innerhalb der Industrie anfallenden Daten werden von Maschinen unterschiedlicher Hersteller bereitgestellt und weisen daher unterschiedliche Formate auf. Die hierbei anfallenden Daten sind vom jeweiligen Hersteller der Anlage abhängig und müssen erst in ein einheitliches Format gebracht werden, um aus den Daten und den daraus resultierenden Veränderungen Trends oder voraussichtliche Entwicklungen ablesen zu können. Die gesuchten Werte müssen schnell gefunden und mit hoher Leistung verarbeitet werden. Dies kann zur Zeit nur mit modernen Anwendungen und Datenbanksysteme aus dem Bereich Big Data erfolgen. Hierfür werden intelligente und ausgefeilte Analysealgorithmen benötigt. Mit der richtigen Software gelingt es allerdings, die Wahrscheinlichkeit über den Ausfall einer Anlage rechtzeitig zu ermitteln, gegebenenfalls ist es sogar möglich, die Wartungsintervalle zu vergrößern und dadurch Kosten einzusparen.

  • Je nach Ursprung tragen die Wasserstoffarten verschiedene Farbnamen. Dabei wird unterschieden zwischen dem Grauen, dem Grünen sowie dem Türkisen Wasserstoff. Auch die Produktionswege spielen eine nicht unerhebliche Rolle bei der Namensgebung. Wofür die verschiedenen Farbnamen stehen An sich ist Wasserstoff ja farblos, also quasi unsichtbar. Es handelt sich vielmehr um symbolische Namensgebungen, die sich auf die unterschiedlichen Herstellungsprozesse des Gases beziehen. Grün ist das Gas alleine schon wegen seiner umweltfreundlichen Eigenschaften als Energielieferant, schließlich verbrennt der Wasserstoff ohne die Entstehung schädlicher Abgase. Das einzige „Abfallprodukt“ bei der Verbrennung ist Wasser. Grün als Bestandteil des Namens spielt bei der Herstellung des Gases eine wichtige Rolle. Doch nun zu den Unterschieden: Grauer Wasserstoff: nicht kohlendioxidneutral Der Graue Wasserstoff steht eher am Ende der Skala, wenn es um die Herstellungsprozesse und deren Umweltfreundlichkeit geht. Das Gas wird in der Regel erzeugt bei der Herstellung von Erdgas, wobei eine Umwandlung des Erdgases in Wasserstoff und CO2 erfolgt. Während das CO2 ungenutzt in die Atmosphäre gelangt, nutzt man den dabei entstandenen Wasserstoff weiter. Die Herstellung auf diese Weise ist nicht ganz unproblematisch, da der in die Atmosphäre abgegebene Anteil an CO2 den globalen Treibhauseffekt verstärkt. Immerhin entsteht bei der Produktion einer Tonne Wasserstoff rund zehnmal soviel CO2. Die Herstellung des Gases erfolgt unter großer Hitze. Er kommt mitunter auch als Abfallprodukt im Bereich der Industrie vor. Grüner Wasserstoff, erzeugt durch alternative Energien Die Farbgebung für den Grünen Wasserstoff erfolgte durch die umweltfreundliche Herstellung des Gases mithilfe alternativer Energien wie beispielsweise der Sonnenenergie oder mit Windkraftwerken. Entwickelt wurden die umweltfreundlichen Herstellungsprozesse zur Verminderung des Ausstoßes von Kohlendioxid. Der Grüne Wasserstoff wird dabei erzeugt durch die Elektrolyse von Wasser. Der hierfür benötigte Strom stammt wiederum aus den erneuerbaren Energien wie beispielsweise Solarenergie oder aus Windrädern. Wichtig ist, dass die bereitgestellte Energie zu 100 Prozent aus erneuerbaren Energien erfolgt und somit CO2-frei ist. Türkiser Wasserstoff und die Bildung von festem Kohlenstoff Der Türkise Wasserstoff entsteht durch die so genannte Methanpyrolyse, also die thermische Spaltung des Gases Methan, die wiederum mithilfe von Erdgas erfolgt. Anders als bei der Herstellung von Grauem Wasserstoff entsteht bei der Herstellung von Türkisem Wasserstoff kein CO2. Stattdessen kommt es zu einer Bildung von festem Kohlenstoff, der sich noch für andere Zwecke weiter nutzen lässt. Da auch bei der Herstellung dieser Wasserstoffart Wärme benötigt wird, ist die CO2-Neutralität nur dann gegeben, wenn diese Wärme mithilfe von erneuerbaren Energien entsteht. Weiterhin ist es wichtig, dass sich der Kohlenstoff bei der Weiterverarbeitung dauerhaft bindet. Blauer Wasserstoff, ebenfalls CO2-neutral Der Blaue Wasserstoff ist sozusagen die CO2-neutrale Version des Grauen Wasserstoffes. Bei der Entstehung entsteht zwar CO2, allerdings gelangt dieser Stoff nicht ungenutzt in die Atmosphäre, vielmehr wird das CO2 in Folge einer Dampfreformierung abgeschieden, gespeichert und später im Zuge anderer chemischer Reaktionen weiterverarbeitet. Es bestehen durchaus Zweifel an der Klimaneutralität dieser Art von Wasserstoff, der weiterhin ein Produkt mit einem CO2-Ausstoß ist. Der Grüne Wasserstoff als umweltfreundliche Alternative Momentan ist Deutschland noch aus dem Import von Grünem Wasserstoff aus anderen Ländern angewiesen. Allerdings gilt der Grüne Wasserstoff fast schon als das Erdöl vom Morgen, weshalb es zu einer nationalen Wasserstoffstrategie gekommen ist, um neue Märkte zu öffnen und Deutschland zu einem globalen Vorreiter auf diesem Gebiet zu machen. Grüne Energie wird in allen Lebensbereichen benötigt, ob im Verkehr, in der Industrie oder bei der Erzeugung von Wärme für Heizzwecke. Der Schlüssel ist die Erzeugung der für die Elektrolyse benötigten Energie, die möglichst klimaneutral und aus erneuerbaren Energien erfolgen sollte. Moderne Technologien zur Erzeugung von Grünem Wasserstoff sind von sehr hoher Bedeutung für den Industriestandort Deutschland. Das Bundesministerium für Bildung und Forschung (BMBF) investiert bereits heute einen hohen Millionenbetrag in die Wasserstoffstrategie und die Entwicklung neuer klimafreundlicher Technologien. Bereits in weniger als 30 Jahren wollen sowohl Deutschland als auch die EU klimaneutral produzieren und den Grünen Wasserstoff zu dem wichtigsten Energieträger machen. Es bleibt abzuwarten, ob dieses ehrgeizige Ziel umzusetzen ist.

  • Die Hauptprobleme beim Umgang mit Wasserstoff bestehen in der Lagerung sowie im Transport des in der Regel künstlich produzierten Energieträgers. Die Speicherung und der Transport können entweder gasförmig oder flüssig erfolgen. Eine Alternative besteht in der Aufbewahrung und den Transport des Wasserstoffs in chemisch gebundener Form. Wie funktioniert der Transport eigentlich heute und welche Probleme gibt es dabei zu bewältigen? Der Transport des Wasserstoffs mithilfe von Lkws Ist ein Transport des Energieträgers Wasserstoff notwendig, erfolgt dieser heute meist mithilfe von Lkws auf der Straße, und das auch in größeren Mengen. Dies gilt vor allem dann, wenn der Transport über relativ kurze Distanzen erfolgen soll. Hier bieten die Lkws klare Kostenvorteile. Erfolgt der Transport im gasförmigenm Zustand, haben viele Lkws eine Kapazität von bis zu etwa 1100 kg. Der Transport erfolgt mit einem Druck von bis zu 500 bar. Alternativ kann der Wasserstoff auch im kalten Zustand flüssig erfolgen, beispielsweise mithilfe einer Zuladung von mehreren 1000 Kilogramm an Wasserstoff. Der Transport ist dennoch nicht ganz unproblematisch, da hohe Anforderungen an die Transportbehältnisse gestellt werden. Pipelines als Alternativen zum Transport auf der Straße Wasserstoffpipelines stellen eine mögliche Alternative zum Transport des Wasserstoffs mithilfe von speziell ausgerüsteten Lkws dar. Ähnlich wie beim herkömmlichen Erdgasnetz kann auf diese Weise eine kontinuierliche Versorgung der Verbraucher stattfinden. Allerdings erkauft man sich diese kontinuierliche Versorgung und die damit verbundenen Vorteile mit relativ hohen Kosten durch einen erhöhten planerischen und baulichen Aufwand gegenüber dem klassischen Transport des Energieträgers auf der Straße. Die Pipelines lohnen sich erst ab einem gewissen Durchsatz pro Tag und unterhalb einer gewissen Distanz. Es hängt also immer davon ab, welcher Transportweg nun der günstigste ist, der Transport per LKW oder der mithilfe einer Pipeline. Die Transportform als wichtiger Faktor für die Wasserstoffwirtschaft Welche Art bzw Zustand des Wasserstoffs während des Transports am wirtschaftlichsten ist, steht zur Zeit noch nicht eindeutig fest. Derzeit gibt es verschiedene Transportformen bzw. Transportzustände für den Wasserstoff: der Transport im gasförmigen Zustand alternativ der Flüssigtransport des Wasserstoffs der Transport nach der Umwandlung bzw. chemischen Bearbeitung Momentan arbeitet man an verschiedenen Lösungen, die einen möglichst gefahrlosen Transport des Energieträgers möglich machen sollen. Die Hauptprobleme bestehen in den hohen Sicherheitsstandards, den Wasserstofftanks erfüllen müssen und die enormen Gefahren, die beispielsweise auf dem Transportweg entstehen können, so etwa durch Unfälle, in denen mit Wasserstoff beladene Fahrzeuge verwickelt sind. Es geht darum, eine Möglichkeit für den Transport ohne den extrem hohen Druck oder sehr niedrige Temperaturen zu finden. Die Bindung des Wasserstoffs an ein Trägermaterial Es gibt zur Zeit sehr vielversprechende Versuche, den Wasserstoff chemisch an einen organischen Wasserstoffträger zu binden, um den Transport zu vereinfachen. Der Vorteil dabei besteht darin, dass das Endprodukt weder hochexplosiv noch sehr schnell entflammbar ist. Dadurch entstehen natürlich auch während des Transportes deutlich weniger Gefahren, außerdem ist ein nicht mehr so enorm hoher Sicherheitsaufwand notwendig. Soll der Wasserstoff an Ort und Stelle wieder in seiner ursprünglichen Form zum Einsatz kommen, wird er aus dem Gemisch wieder herausgelöst und anschließend verwendet. Der Transport auf herkömmlichen Wegen Der auf diese Weise gebundene Wasserstoff benötigt weder einen hohen Druck noch eine extrem niedrige Lagerungstemperatur. Er ließe sich somit wie herkömmliche Brennstoffe in Lkws oder Schiffe verladen und auf einfache Weise transportieren. Die bereits bestehende Infrastruktur könnte also für den Transport des Wasserstoffs in dieser chemisch behandelten Form genutzt werden. Fazit: Der Transport von Wasserstoff ist naturgemäß nicht ganz unproblematisch. Tatsächlich könnte die Bindung des Energieträgers an andere Chemikalien die Lösung darstellen, sofern der Prozess des Bindens als auch der des späteren Herauslösens nicht zu viel zusätzliche Energie erforderlich macht. Denn jeder chemische Prozess bedingt einen gewissen Aufwand, der nicht unterschätzt werden sollte. Dennoch ist dieser Aufwand im Vergleich mit dem sonst üblichen Transportaufwand für den Wasserstoff im günstigsten Fall nur relativ gering, wodurch dieses Verfahren schon eine interessante Alternative zum Transport in ursprünglicher Form des Wasserstoffs darstellt.

  • Der Wasserstoff gilt als eines der Schlüsselelemente innerhalb der Energiewende. In den verschiedenen Sektoren Strom, Wärme und Mobilität möchte man nach und nach die fossilen Energieträger durch erneuerbare Energien ersetzen. Deshalb spielt auch der Wasserstoff eine nicht unerhebliche Rolle bei der Sektorenkopplung. Was bedeutet eigentlich die Sektorenkopplung? Bei der Sektorenkopplung geht es hauptsächlich um eines: das ideale Zusammenspiel zwischen den verschiedenen Energiesektoren Strom, Wärme und Mobilität und damit um das optimale Zusammenspiel der verschiedenen Sektoren des Energiesystems. Wasserstoff spielt dabei eine erhebliche Rolle, gilt er doch als Energieträger der Zukunft und als äußerst vielseitig einsetzbar. Wasserstoff lässt sich sehr gut in bestehende Energiesysteme integrieren und steuert damit einen erheblichen Teil zur Energiewende bei. Die Sektorenkopplung bzw. Sektorkopplung ist die Vernetzung verschiedener Sektoren innerhalb der Energiewirtschaft und der Industrie. Heute geht es um den Austausch von Energieträgern, insbesondere der Ersatz fossiler Brennstoffe wie Benzin, Gas oder Kohle durch erneuerbare Energieträger, zu denen auch der Wasserstoff gehört. Die verschiedenen Märkte und Netze müssen optimal verknüpft werden, um die Umwandlung der verschiedenen Energieformen optimal umsetzen zu können. Die Sektorenkopplung ist also ein wichtiger Lösungsansatz für die gesamte Energiewende auf dem Weg zur Klimaneutralität. Welche Rolle spielt der Wasserstoff innerhalb der Sektorenkopplung? Wasserstoff ist deutlich mehr als ein Trendthema der jüngsten Zeit. Für viele ist er der Schlüssel zur intelligenten Vernetzung verschiedener Sektoren im Energiebereich. Sowohl verschiedenste Bereiche der Industrie, der Mobilität und der Wärmeerzeugung sollen mithilfe von Wasserstoff auf erneuerbare Energien umgestellt werden. Innerhalb der nächsten paar Jahrzehnte soll es quasi zu einer vollständigen Umstellung der Infrastruktur in diesen Bereichen kommen. Eine sehr wichtige Technologie in diesem Bereich ist Power-to-Gas. Es handelt sich hierbei um die Umwandlung elektrischer Energie zu Wasserstoff, der dann für andere Einsatzzwecke gespeichert wird. Durch diese Technologie kann zum Beispiel durch Wind- oder Sonnenkraftwerke erzeugte und überschüssige Energie sinnvoll genutzt werden, um sie in Form eines Energieträgers wie Wasserstoff zu speichern und später weiter zu verwenden. So kann beispielsweise der durch die überschüssigen Energiemengen erzeugte Wasserstoff in Brennstoffzellenfahrzeugen eingesetzt werden oder als Kraftstoff für andere Anlagen wie zum Beispiel zur Erzeugung von Wärme für Wohnungen oder öffentlich genutzte Gebäude. Worum es bei der Sektorenkopplung im Wesentlichen geht Das Ziel ist die optimale Nutzung der Energieträger in Form einer umfassenden Vernetzung verschiedener Energiesektoren bzw. Sektoren innerhalb der Energiewirtschaft und Industrie. Es handelt sich hauptsächlich um die Bereiche Elektrizität, Wärme und Kälte, Verkehr und Industrie, die bislang häufig unabhängig voneinander betrachtet wurden. Modernere Lösungsansätze sollen zu einer ganzheitlichen Betrachtung verschiedenster Sektoren führen. Dadurch entstehen einige Vorteile, unter anderem die folgenden: eine größere Flexibilität bei einer situationsbedingt größeren Nachfrage nach elektrischer Energie durch Schwankungen im Stromnetz Sicherstellung der Energiesicherheit durch die Vernetzung verschiedener Energiespeicher der Einsatz von erneuerbaren Energien für alle Sektoren der Wirtschaft der Einsatz möglichst energieeffizienter Technologien zur Senkung des Energieverbrauchs Das Smart Energy System als ganzheitlich konzipiertes und betriebenes System Der Trend geht eindeutig hin zu einem so genannten Hybridnetz, das mehrere Energieinfrastrukturen beinhaltet und quasi als ganzheitlich konzipiertes und unter optimalen Bedingungen betriebenes Gesamtsystem gesehen werden kann. Ziel ist die Nutzung erneuerbarer Energieträger und damit eine Dekarbonisierung verschiedener Sektoren. Ein weiteres, wichtiges Ziel besteht darin, zu Zeiten der Entstehung erhöhter Energiemengen diese sinnvoll zu nutzen, indem sie gespeichert und bei Bedarf eingesetzt werden können. Kraftwerke müssen zum Beispiel nicht mehr abgeregelt werden, wenn die erzeugten Energiemengen den Bedarf übersteigen. Damit wird eine Energievergeudung zuvor aufwendig erzeugter Energie vermieden. Wenn neue Speichertechnologien entstehen, kann die erzeugte Energie wesentlich besser genutzt und somit das Gesamtsystem effizienter gestaltet werden. Warum die Sektorenkopplung für die Energiewende wichtig ist Die Sektorenkopplung kann wesentlich dazu beitragen, den Strom aus regenerativen Quellen wie Wind- und Solarkraftwerken sinnvoller zu nutzen und den Einsatz solcher Kraftwerke zu fördern. Ziel ist es, diese Quellen zu den dominierenden Energieträgern im Energiesystem zu machen. Außerdem trägt die Sektorenkopplung dazu bei, nicht nur die Energieversorgung vermehrt auf den Einsatz erneuerbarer Energien umzustellen, sondern auch andere wichtige Bereiche wie etwa den Verkehr, den Wärmesektor oder die Industrie mit ihrem zum Teil sehr hohen Energiebedarf, der jederzeit sichergestellt sein muss.

  • Vor allem der Grüne Wasserstoff gilt als klimaneutraler Energieträger der Zukunft. Dennoch ist Wasserstoff nicht ganz unproblematisch. Immerhin handelt es sich um ein farb- und geruchsloses Gas, das sehr schnell entzündlich und damit sehr gefährlich ist. Ein hochexplosiver Energieträger ohne Abgase Die Wasserstoffwirtschaft hatte von Anfang an Kritiker. Laut diesen löst die Wasserstoffwirtschaft keine Energieprobleme, vielmehr führt sie zur Bildung von neuen Gefahren, unter anderem wegen der hohen Entzündlichkeit des Gases und der damit verbundenen Probleme bei der Lagerung und beim Transport. Außerdem ist die Wasserstoffgewinnung nicht ganz unproblematisch, da bei der Entstehung bzw. Umwandlung der Gase oft auch Kohlendioxid entsteht. Hierbei handelt es sich um eine Tatsache, die aus einem an sich umweltfreundlichen Rohstoff ein weitaus weniger ökologisches Endprodukt macht. Der Grüne Wasserstoff ist also mehr oder weniger nur auf dem Papier perfekt, in der Realität dagegen wurden die an ihn gestellten und zum Teil sehr hohen Erwartungen bisher nicht ganz erfüllt. Dafür sind zum größten Teil zwei grundlegende Probleme verantwortlich. Die Hauptprobleme mit dem Wasserstoff und dessen Verarbeitung Eines der Hauptprobleme besteht in der Herstellung des Energieträgers, die als relativ teuer und nicht unbedingt umweltfreundlich gilt. Diese erfolgt zu einem großen Teil aus chemischen Fabriken, zum Teil auch als eine Art Nebenprodukt. Weitere Probleme bestehen zum größten Teil in der Lagerung und im Transport des Wasserstoffes. Sowohl die Lagerung als auch der Transport müssen in speziellen Behältern erfolgen, was nicht nur bei der industriellen Verarbeitung eine wichtige Rolle spielt und einen nicht unerheblichen Kostenfaktor darstellt. Auch beim Einsatz in Motoren mit Wasserstoffantrieb ist die Lagerung ein nicht unerhebliches Problem. Wasserstoff kommt meist nur in gebundener Form vor Der Wasserstoff muss quasi immer neu hergestellt werden. Er ist ein fester Bestandteil organischer Verbindungen und das am häufigsten vorkommende chemische Element im Universum. Allerdings besteht das Hauptvorkommen nur in gebundener Form, also als chemische Verbindung mit anderen Stoffen. Ein klassisches Beispiel ist das Wasser, das neben Sauerstoff auch den Wasserstoff enthält. Um den Wasserstoff allerdings als Energieträger nutzen zu können, muss es erst aus dieser gebundenen Form herausgelöst werden. Dies kann zum Beispiel mithilfe der Elektrolyse entstehen, für die aber wiederum elektrischer Strom benötigt wird. Nur mithilfe des elektrischen Stroms lässt sich beispielsweise Wasser in seine Bestandteile Sauerstoff und Wasserstoff trennen. Dabei werden die entstehenden Gase getrennt weiterverarbeitet. Ein explosiver Energieträger Wasserstoff ist außerdem ein sehr explosiver Energieträger. Dies gilt vor allem dann, wenn Wasserstoff auf Sauerstoff trifft, um mit diesem wieder eine Verbindung in Form von Wasser einzugehen. Daraus ergeben sich die schon genannten Probleme bei der Lagerung und beim Transport des Energieträgers. Beim Umwandlungsprozess während der Gewinnung aus fossilen Energieträgern wie Erdgas kann zudem Kohlendioxid entstehen, was den Rohstoff wiederum als nicht gerade umweltfreundlich darstellt. Die Hauptprobleme beim Umgang mit diesem Energieträger sind also die folgenden: – Der Wasserstoff bildet beim Austreten aus festen Behältnissen ein entzündliches Gemisch mit der Umgebungsluft. – Außerdem hat er eine relativ niedrige Verbrennungsenthalpie, also eine relativ geringe Menge an freigesetzter Energie während der Verbrennung. – Wasserstoff hat eine relativ geringe Molekülgröße. Dadurch diffundiert Wasserstoff relativ gut mit vielen verschiedenen Materialien, die für die Verwendung eines Wasserstofftanks geeignet sind. – Bei der Wasserstoffverflüssigung kommt es zu nicht vermeidbaren thermischen Isolationsverlusten und damit zum Verdampfen bzw. Ausgasen des Wasserstoffes, wodurch wiederum zum Teil hohe Verluste entstehen. – Die Wasserstoffspeicherung gilt in vielen Fällen noch als unwirtschaftlich, da allein für die Speicherung des Energieträgers schon gewisse Energiemengen benötigt werden. Fazit: Sowohl die Herstellung als auch die Weiterverarbeitung und Lagerung des Energieträgers Wasserstoff sind nicht ganz unproblematisch, was für eine derzeit noch relativ geringe Verbreitung des Energieträgers sorgt. Hier gilt es, vor der effizienten Nutzung des Energieträgers noch einige Probleme diesbezüglich zu lösen.

  • Jede Produktionsanlage und jede Maschine benötigt aus Sicherheitsgründen eine so genannte Maschinenauthentifizierung, um gegen unberechtigte Zugriffe geschützt zu sein. Die Authentifizierung von Benutzern stellt einen erheblichen Sicherheitsfaktor dar. Es gibt heute verschiedene Möglichkeiten der Maschinenauthentifizierung. Sie alle dienen dazu, die Identität eines Benutzers oder eines Gerätes möglichst zuverlässig zu überprüfen. Der Authentifizierungsprozess ist damit ein wesentlicher Sicherheitsfaktor. Oft schon geht die Sicherheit weit über die sonst übliche Art der Authentifizierung, beispielsweise mithilfe von Passwörtern oder Sicherheitsfragen, hinaus. Auf welche Weise eine Maschinenauthentifizierung erfolgen kann Aufgrund der häufig hohen Mengen an verschiedenen Benutzern und Geräten in einem Netzwerk (beispielsweise innerhalb einer Produktionsstraße oder in einer Firma) können verschiedene Konzepte rund um die Maschinenauthentifizierung umgesetzt werden. Hier sind einige der wichtigsten Konzepte für die Authentifizierung: – die Identifikation einer Person oder eines Gerätes (beispielsweise Fahrzeug oder Transportmittel) innerhalb eines Netzwerks – die Authentifizierung, also die Sicherstellung einer vorgegebenen Identität durch Vorlage eines Zertifikates, eines Fingerabdrucks oder im einfachsten Fall durch eine Passworteingabe – unterschiedliche Authentifizierungsmechanismen, darunter die Einfaktorauthentifizierung oder die Zweifaktorauthentifizierung – die so genannte starke Authentifizierung oder Multifaktorauthentifizierung, bei der in der Regel mehr als zwei Mechanismen unterschiedlicher Art zum Einsatz kommen, um die Identität eines Nutzers nachzuweisen Die Erkennung eines Nutzers auf unterschiedliche Art und Weise Je nach den aktuellen Anforderungen kann die Maschinenauthentifizierung auf unterschiedliche Art und Weise erfolgen. Dabei unterscheidet man in der Regel nach der jeweiligen Produktionsumgebung oder zwischen verschiedenen Geräten in einem Netzwerk. Auch die Sicherheitsvorschriften bzw. Mechanismen zur Authentifizierung unterscheiden sich je nach Anwendungszweck stark voneinander. Die Benutzererkennung beispielsweise kann auf unterschiedliche Art und Weise erfolgen: RFID: Die Radio Frequency Identification gehört inzwischen zu den sehr weit verbreiteten Technologien, mit deren Hilfe sowohl die Identifizierung von Benutzern als auch die von Objekten erfolgen kann. Eingesetzt werden für die Identifizierung elektromagnetische Wellen, es findet also eine Kommunikation zwischen einem Sender und einem Empfänger statt. Es handelt sich somit um eine berührungslose Kommunikation, die sowohl für die Identifizierung als auch für die Lokalisierung verwendbar ist und innerhalb der Industrie bereits in verschiedenen Bereichen zum Einsatz kommt. Die Gesichtserkennung tastet das Gesicht einer Person mithilfe einer Kamera ab und vergleicht es mit zuvor gespeicherten Bildern als Vorlagen. Mithilfe einer speziellen Erkennungssoftware werden die charakteristischen Eigenschaften von Gesichtern bekannter Benutzer mit dem aktuell aufgenommenen Bild verglichen. Auf diese Weise ist eine inzwischen recht sichere Authentifizierung von Benutzern möglich. Wichtig ist nur die Verwendung von charakteristischen Merkmalen verschiedener Gesichtszüge, bei denen keine zu starken Veränderungen durch die Mimik stattfinden. Auch der Fingerabdruck wird für diese Art der Personenauthentifizierung verwendet. Der Fingerabdruckscan gilt inzwischen als relativ sicher und vor allem einfach anzuwenden. Vorteilhaft ist diese Methode genau wie die der Gesichtserkennung dadurch, dass sich der Benutzer keine langen Passwörter oder Benutzernamen merken muss und die Authentifizierung aus diesem Grund sehr schnell und einfach erfolgen kann. Auch die geometrischen Sensoren werden immer besser, wodurch die Sicherheit der Authentifizierung mithilfe des Fingerabdrucks zusätzlich erhöht wird. Ähnliches gilt auch für die Authentifizierung mittels Irisscan. Sie gehört inzwischen zu den bewährten biometrischen Lösungen für die Maschinenauthentifizierung, da sie es ermöglicht, Nutzer sehr schnell und sicher an Systemen oder Produktionsanlagen anzumelden. Besonders gilt dies dann, wenn zum Beispiel mithilfe einer Zweifaktorauthentifizierung ein zweites Sicherheitselement zum Einsatz kommt. Moderne Verfahren unterscheiden sehr sicher zwischen einer Bildverarbeitung, beispielsweise mithilfe eines Fotos, und zwischen einer echten Person, die dreidimensional vor dem Sensor steht. Es handelt sich also um eine relativ komplexe Zugriffskontrolle für Zugänge mit einem hohen Sicherheitsfaktor. Die klassische Authentifizierungsmethode mithilfe eines Passworts gilt heute vielerorts als nicht mehr alleine ausreichend. Zum Einsatz kommt diese Methode häufig noch zusammen mit anderen Sicherheitsmechanismen. Der Grund dafür: Viele Personen nutzen zu unsichere Passwörter, die zudem viel zu selten oder gar nicht aktualisiert werden. Eine der größten Gefahren bei der Nutzung normaler Passwörter liegt darin, dass Hacker bei der Kenntnis eines Passwortes von einem bestimmten Benutzer gleich den Zugriff auf mehrere Zugänge dieses Nutzers erhalten, wenn der Nutzer das gleiche Passwort an mehreren Stellen verwendet. Dafür ist die Verwendung von Passwörtern sehr einfach in unterschiedlichste Systeme zu implementieren, was vor allem bei häufigeren Benutzerwechseln von Vorteil ist. Außerdem gilt die Verwendung von Passwörtern oft noch als recht benutzerfreundlich. Wichtig: der Zeitfaktor bei der Maschinenauthentifizierung Häufig kommt es nicht nur allein auf die Sicherheit bei der Maschinenauthentifizierung an, sondern auch auf die Schnelligkeit bzw. Geschwindigkeit, mit der diese erfolgen kann. Hier bieten moderne Authentifizierungsmethoden wie zum Beispiel RFID erhebliche Vorteile durch eine enorme Zeitersparnis. Passwörter werden häufig sehr langwierig und umständlich eingetippt, außerdem besteht dabei oft die Gefahr, dass diese während der Eingabe von Unbefugten eingesehen werden. Ähnliches gilt auch für andere Verfahren, beispielsweise biometrische Zugriffsverfahren wie die Gesichtserkennung oder der Scanner für den Fingerabdruck. Allerdings sollte dabei immer die Komplexität im Auge behalten werden, damit die entsprechenden Sicherheitsverfahren auch eine ausreichende Akzeptanz finden. Als relativ sicher gelten beispielsweise kombinierte Zugangskontrollen, beispielsweise eine Kombination aus PIN und Fingerabdruckscan oder mithilfe einer zusätzlichen biometrischen Sicherheitsvorkehrung. Vorteile von RFID bei der Maschinenauthentifizierung Die RFID ist sehr vielseitig einsetzbar, da sie eine berührungslose Authentifizierung ermöglicht. Die Transponder können in unterschiedlichsten Gegenständen untergebracht und mittlerweile sehr kompakt dargestellt werden. Mithilfe der RFID lassen sich so nicht nur Personen, sondern auch Fahrzeuge oder Gegenstände lokalisieren und identifizieren. Die Geschwindigkeit der Maschinenauthentifizierung mithilfe solcher Systeme ist zudem sehr schnell, was eine erhebliche Zeitersparnis bei ausreichender Sicherstellung der benötigten Sicherheitsstandards bringt. Im Bereich der Industrie 4.0 kommt die Identifizierung mithilfe von RFID / KEY bereits vielerorts zum Einsatz, sei es nun als Echtheitsmerkmal, für die Lokalisierung bzw. Positionsbestimmung von fahrerlosen Transportsystemen als auch für den Einsatz in Chipkarten oder ähnlichen Authentifizierungsmechanismen. Sehr gerne eingesetzt wird beispielsweise eine so genannte passive RFID, welche komplett ohne eigene Stromversorgung auskommt. Sie eignet sich ausschließlich für die Authentifizierung über kurze Entfernungen, was allerdings kein Nachteil sein muss, sondern auch als zusätzlicher Sicherheitsvorteil denkbar ist. Die Aktivierung der Transponder erfolgt ausschließlich bei der Abfrage durch das Gegenstück in Form eines Lesegerätes. Der Transponder wird also nur während der Datenübertragung mit dem Lesegerät aktiviert. Die Kommunikation kann in beide Richtungen erfolgen, wodurch die Anwendungsgebiete, mehr …

ADM Lösungen

  • Laut Bundesministerium für Bildung und Forschung trägt der Wasserstoff nicht nur wesentlich zur Energiewende bei, sondern schafft darüber hinaus auch zahlreiche Arbeitsplätze. Besonders die deutschen Firmen gelten als weltweit führend bei der Entwicklung von Wasserstofftechnologien. Aber ist der Wasserstoff wirklich die Jobmaschine, die Tausende von neuen Stellen in Deutschland entstehen lässt? Der Wasserstoff und sein Potenzial in der Industrie Wasserstoff bietet tatsächlich ein sehr großes Potenzial in verschiedenen Bereichen der Industrie oder in der Energieversorgung. Damit Deutschland im internationalen Wettbewerb konkurrenzfähig bleibt, sind hohe Investitionen in die heimische Wirtschaft notwendig. Es handelt sich um eine wahre Schlüsseltechnologie, die helfen soll, neue Klimaschutzziele zu erreichen. Es geht um verschiedene Zielsetzungen wie etwa die Schließung von Versorgungslücken bei Kraftwerken, wenn die Stromerzeugung durch erneuerbare Energien aufgrund witterungsbedingter Verhältnisse nicht ausreicht. Die Speicherung des durch alternative Energien erzeugten Stroms oder dessen Umwandlung in Brennstoffe (Power-to-Gas) ist eine mögliche Lösung. Die sonst überschüssige Energie kann so zur Gewinnung von Wasserstoff genutzt werden. Dieser wird dann verbrannt und treibt dabei verschiedenste Fahrzeuge an oder heizt Wohnungen, öffentliche Gebäude oder Fabriken auf. Außerdem kann Wasserstoff als Grundstoff zur Erzeugung anderer Gase eingesetzt werden. All dies hat natürlich enorme Auswirkungen auf den Arbeitsmarkt. Die zur Umsetzung der Ziele erforderlichen Technologien müssen entwickelt und umgesetzt werden, dadurch entstehen auch wertvolle Arbeitsplätze. Wie wirkt sich die Wasserstofftechnologie auf den Arbeitsmarkt aus? Es geht um die Herstellung von Brennstoffzellen und die Produktion des dafür notwendigen Wasserstoffs. Die Entstehung einer entsprechenden Industrie hat enorme Auswirkungen auf den deutschen Arbeitsmarkt. Der Energieträger Wasserstoff soll zu einem Massenmarkt werden. Der Bedarf dafür allein in Deutschland ist sehr hoch. Um die Ziele umzusetzen, sind moderne Elektrolyseanlagen notwendig, in denen Wasser in seine beiden Bestandteile Wasserstoff und Sauerstoff getrennt wird. Wichtig dabei ist der Einsatz erneuerbarer Energiequellen, so dass Grüner Wasserstoff entsteht. Sehr stark daran beteiligt ist die so genannte Wasserstoffstrategie der Bundesregierung, die mit ihren hohen Investitionen in diese Bereiche die Entstehung neuer Arbeitsplätze fördert. Aber nicht nur im Bereich der Elektrolyse wirkt sich der vermehrte Einsatz von Wasserstoff stark auf die Entstehung von neuen Arbeitsplätzen aus. Schließlich muss der neue Energieträger nicht nur hergestellt, sondern auch transportiert und gespeichert werden, wofür wiederum Fachkräfte und entsprechende Technologien notwendig sind. Soll der Wasserstoff Lkws, Züge oder sogar Flugzeuge antreiben, ist eine Entwicklung entsprechender Antriebe notwendig. Hierfür werden Fachkräfte benötigt, die diese neuen Technologien entwickeln. Welche Ausbildung wird benötigt? Um die neuen Arbeitsplätze besetzen zu können, ist auch die Ausbildung von Fachkräften wichtig. Im Idealfall sollte derjenige, der zukünftig mit Wasserstoff und/oder Brennstoffzellen arbeiten möchte, ein Studium absolvieren, entweder als Ingenieur oder als Elektrotechniker. Wichtig ist eine entsprechende Weiterbildung, da der Themenbereich Wasserstoff und dessen Erzeugung meist nur angeschnitten wird. Im Idealfall bildet sich der interessierte Arbeitnehmer in den Bereichen Brennstoffzellen, Batterietechnologien, Sicherheit im Bereich des Wasserstoffs und Elektrofahrzeuge weiter. Auch Fachkenntnisse in den Bereichen elektrochemische Vorgänge oder die elektrochemische Speicherung von Energie sind vorteilhaft. Wichtig ist es natürlich, dass entsprechende Fachkräfte ausgebildet werden können. Dazu werden einmal wieder staatliche Förderungen notwendig sein. Das Fachpersonal wird auf jeden Fall gebraucht. Es bleibt nur abzuwarten, wie weit sich die hochgesteckten Ziele in bezug auf die Ausbildung und die Förderung derartiger Projekte umsetzen lassen bzw. umgesetzt werden. Wasserstoff, ein Bereich mit Zukunft? Wasserstoff gilt durchaus als zukunftsträchtig. Allerdings ist es noch ein weiter Weg zur Erzeugung von Energie alleine durch erneuerbare Energieträger und weg von fossilen Brennstoffen. Dies gilt für alle Bereiche, in denen große Chancen für neue Jobs bestehen. Allerdings ist es eine Frage der Umsetzung und vor allem der Ausbildung von neuen Fachkräften in diesem Bereich, wie weit die entstehenden Arbeitsplätze letzten Endes auch mit den benötigten Fachkräften auf diesem Gebiet besetzt werden können.

  • Der mithilfe von erneuerbaren Energien erzeugte Wasserstoff, entstehend durch die Elektrolyse von Wasser, gilt als großer Hoffnungsträger zum Erreichen der Klimaschutzziele. Es geht um die Erzeugung synthetischer Kraftstoffe mithilfe des Wasserstoffs, so genannte E-Fuels, die herkömmliche Benzin- oder Dieselkraftstoffe ersetzen können. Der Ersatz aus Ökoenergie scheint wirklich eine Lösung für viele momentan aktuelle Probleme darzustellen, zumindest auf den ersten Blick. Viele Anwendungsgebiete für den Grünen Wasserstoff Der Grüne Wasserstoff soll vor allem dabei helfen, die Erzeuger der Treibhausgase in Zukunft meiden zu helfen und die Energiewirtschaft insgesamt klimafreundlicher zu gestalten. Dabei spielt der Industriestandort Deutschland eine wesentliche Rolle, schließlich gilt das Land als einer der Vorreiter im Bereich ökologischer hergestellter Wasserstoff. Dieser lässt sich auf vielseitige Weise verwenden. Hier sind nur einige Beispiele der möglichen Einsatzgebiete: als alternativer Brennstoff zum Anfeuern von Öfen im Bereich der Industrie als Ersatz für die fossile Rohstoffbasis im Bereich der Chemieindustrie, beispielsweise zusammen mit CO2 als Baustein die Umwandlung von Grünem Wasserstoff in Strom und Wärme, beispielsweise mithilfe von Brennstoffzellen mithilfe der Stromerzeugung durch grünen Wasserstoff Schwankungen in den Stromnetzen ausgleichen und Bedarfsspitzen abdecken der Antrieb von Fahrzeugen unterschiedlicher Art mithilfe von Wasserstoff in Verbrennungsmotoren oder Brennstoffzellen die Umwandlung von Wasserstoff in andere Kraftstoffe für den Antrieb von Wasser- und Straßenfahrzeugen Warum sollte es Grüner Wasserstoff sein? Wasserstoff wird durch die Elektrolyse von Wasser mithilfe von elektrischer Energie hergestellt. Wichtig dabei ist es allerdings, auf welche Art und Weise diese elektrische Energie erzeugt wird. Nur mithilfe der Erzeugung von elektrischem Strom durch erneuerbare Energien kann Grüner Wasserstoff hergestellt werden und so fossile Energieträger auf umweltfreundliche Art und Weise ersetzen. Sinnvoll ist beispielsweise die Nutzung der Energieüberschüsse, die bei der Stromerzeugung mithilfe von Wind- und Solarkraftwerken entstehen. Die Leistungsspitzen können so auf sinnvolle Art und Weise genutzt werden, beispielsweise zur Überbrückung von Bedarfsspitzen oder zur Nutzung für andere Zwecke. Ohne fossile Rohstoffe herstellbar Der Grüne Wasserstoff ist ohne den Einsatz fossiler Rohstoffe herstellbar, und das als einzige Art verschiedener Wasserstoffarten, darunter Grauer, Blauer oder Türkiser Wasserstoff, für die zum Beispiel Erdgas zur Herstellung benötigt wird. Das Erdgas zur Herstellung der anderen Wasserstoffarten muss gefördert werden, wobei wiederum erhebliche Emissionen entstehen, die klimaschädlich sind. So können beispielsweise nicht unerhebliche Mengen an Methan in die Umwelt entweichen, das sogar noch klimaschädlicher als CO2 gilt. Bei den weniger umweltfreundlichen Wasserstoffarten wie zum Beispiel Grauen Wasserstoff fällt während der Spaltung und Entstehung des Wasserstoffs etwa zehnmal soviel CO2 als Abfallprodukt an. Die Speicherung dieser Abfallprodukte ist zwar möglich, birgt allerdings gewisse Risiken und verursacht unnötige Kosten. Grüner Wasserstoff für den Einsatz in der Industrie Der Grüne Wasserstoff lässt sich sehr gut in der Industrie einsetzen, beispielsweise zum Aufheizen von Brennöfen im Bereich der Glas-, Stahl- oder Zementindustrie. Außerdem lässt er sich sehr gut einsetzen, um aus Abgasen andere Stoffe zu produzieren, beispielsweise Dünger. Wasserstoff ist allerdings auch ein wichtiger Rohstoff zur Herstellung verschiedener anderer Energieträger, die im Bereich der Chemieindustrie oder zum Antrieb von Fahrzeugen eingesetzt werden können. Es handelt sich um das so genannte Power-to-X-Verfahren, mit dessen Hilfe aus elektrischer Energie und Wasser sich die verschiedensten Grundstoffe als synthetische Energieträger herstellen lassen. Synthetische Kraftstoffe als umweltfreundliche Alternativen Die eben genannten Energieträger in Form synthetischer Kraftstoffe, oft auch als E-Fuels bezeichnet, lassen sich als Alternativen zu Benzin- oder Dieselkraftstoffen einsetzen. Mithilfe von Wasser und umweltfreundlich hergestelltem Strom entsteht Wasserstoff, unter Zugabe weiterer chemischer Stoffe kann aus diesem synthetischer Kraftstoff entstehen. Das Problem dabei: Diese Technologie existiert bisher zum größten Teil nur auf dem Papier. Allerdings sind die ersten kleineren Produktionsanlagen schon geplant, um Alternativen für fossile Energieträger bereitzustellen. Die alternativen Kraftstoffe sollen helfen, einen zumindest geringen Anteil der Treibhausemissionen zu verhindern. Allerdings sollte nicht vergessen werden, dass die auf Wasserstoff basierenden Kraftstoffe relativ teuer in der Herstellung und somit die herkömmlichen Kraftstoffe nur begrenzt ersetzen können. Effizienz und Kosten der Herstellung von Grünem Wasserstoff Bisher sind es rund 60 Prozent der Energie zur Durchführung der Elektrolyse, die später auch in Form von Wasserstoff gewonnen werden können. Die Chancen sind allerdings recht hoch, diese Effizienz noch wesentlich zu erhöhen und dadurch die Herstellung synthetischer Kraftstoffe weiter zu verbessern. So lässt sich beispielsweise die bei der Elektrolyse anfallende Wärme anderweitig einsetzen, um den Wirkungsgrad zu erhöhen. Ein Problem sind die Kosten, die bei der Herstellung von Grünem Wasserstoff entstehen. Die Entwicklung der Kosten hängt unter anderem davon ab, wie weit die Effizienz der Wasserelektrolyse in naher Zukunft weiter voranschreitet und die günstig sich der dafür eingesetzte elektrische Strom herstellen lässt. Dabei spielt auch der Standort eine wichtige Rolle. Der Grüne Wasserstoff lässt sich dort am günstigsten herstellen, wo genügend erneuerbare Energien zur Verfügung stehen, die für die Wasserelektrolyse benötigt werden. Ein großes Potenzial bieten zum Beispiel die Gebiete, wo sehr effizient Solarkraftwerke eingesetzt werden können, beispielsweise auf ungenutzten Flächen mit viel Sonneneinstrahlung. Der Transport von Grünem Wasserstoff Je nachdem, wo der Grüne Wasserstoff produziert wird, fallen zum Teil sehr hohe Transportkosten an. Der Wasserstoff lässt sich nur unter hohem Druck speichern und transportieren, was wiederum kompliziert und teuer ist. Eine Alternative besteht darin, den Wasserstoff vorübergehend an flüssige organische Wasserstoffträger zu binden, um ihn besser und sicherer transportabel zu machen. Schließlich geht es darum, den Grünen Wasserstoff an Orten mit genügend erneuerbaren Energien zu produzieren und ihn möglichst preisgünstig dorthin zu transportieren, wo er benötigt wird. Die Wasserstoffproduktion innerhalb von Deutschland kann zwar helfen, Schwankungen bei der Erzeugung von erneuerbarer elektrische Energie auszugleichen, wesentlich größere Mengen an Wasserstoff lassen sich allerdings besser an anderen Orten der Erde produzieren, beispielsweise in Süd- und Westafrika sowie in Australien, wo hervorragende Bedingungen diesbezüglich herrschen. Hier gibt es genügend ungenutzte Flächen, auf denen sich sehr gut Strom mithilfe der Sonne und der Windenergie erzeugen lässt. Weitere Themen rund um den Grünen Sauerstoff sowie andere Wasserstoffarten Die Herstellung und Weiterverarbeitung von Wasserstoff sind weitreichende Themen. Es gibt hier jetzt bereits einen riesigen Markt, so dass sich der Energieträger sehr gut als Alternative für viele fossile Energieträger einsetzen lässt. Allerdings gibt es sowohl bei der Herstellung als auch bei der weiteren Verarbeitung einige Probleme zu bewältigen. mehr …

  • Embedded Linux Embedded Linux auf Rechnern mit speziellen Funktionen Als Embedded Linux wird ein eingebettetes System bezeichnet, das auf einem Linux-Kern aufgebaut ist und das auf Systemen mit genau bestimmten Einsatzzwecken läuft. Der Rechner mit diesem Betriebssystem übernimmt spezielle Aufgaben wie beispielsweise Steuerungen von Maschinen oder Regelfunktionen sowie die Überwachung von Daten oder die Signalverarbeitung. Es handelt sich um eher im Hintergrund arbeitende Systeme, so dass die Anwender vom Betriebssystem praktisch gar nichts zu sehen bekommen. Möglicherweise ist in verschiedenen Systemen für die Steuerung oder auch im Bereich der Unterhaltungselektronik ein Linux als Betriebssystemkern enthalten, ohne dass die Benutzer dieser Geräte davon etwas wissen. Sogar in Fahrzeugen werden auf Linux basierende Systeme in Form von einem Embedded Linux eingesetzt. Warum Linux gerne als eingebettetes System verwendet wird Linux bietet als Betriebssystem den Vorteil, dass es frei verfügbar ist und auf die verschiedensten Anwendungsgebiete angepasst werden kann. Es eignet sich für den Einsatz in Geräten der Unterhaltungselektronik ebenso wie zum Aufbau von autonomen und eingebetteten Systemen wie Maschinensteuerungen in der Fertigung, Computersysteme in Fahrzeugen oder für ganze Rechneranlagen. Der Linuxkernel kann auf die verschiedensten Einsatzgebiete angepasst werden und benötigt für die Ausübung der vorgesehenen Aufgabe lediglich auf die entsprechende Hardware zugeschnittene Treiber oder Softwarekomponenten, die im jeweiligen Kontext wichtig sind. Die Software besteht aus folgenden Komponenten: • der so genannte Bootloader zum Laden des Betriebssystems und der Betriebssoftware • das Betriebssystem in Form des Linux-Kernels, das Funktionen wie die Speicherverwaltung oder verschiedene Dienste beinhaltet • die für den Nutzer wichtige Anwendungssoftware, die meist auf den jeweiligen Anwendungszweck zugeschnitten wurde Embedded Linux für unterschiedliche Prozessorarchitekturen Ein auf Linux basierendes Betriebssystem bietet noch einen weiteren wichtigen Vorteil, nämlich die Verwendung auf den unterschiedlichsten Prozessorfamilien. Linux läuft je nach Version problemlos auf verschiedensten Architekturen wie etwa x86, ARM, PowerPC MIPS oder SuperH, um nur einige zu nennen. Ebenso kann bei einem Embedded Linux System eine Vielzahl unterschiedlichster Hardwarekomponenten Anwendung finden, da die dafür notwendigen Treiber entweder schon vorhanden sind oder notfalls angepasst werden können. In vielen Fällen ist dies jedoch gar nicht notwendig, da sowohl für Ein- und Ausgabegeräte als auch für verschiedene Hardwarekomponenten und sonstige Geräte bereits die notwendigen Treiber vorhanden sind. Die wesentlichen Komponenten des Embedded Systems Die wichtigsten Komponenten des Systems, darunter Funktionen wie der Bootloader, der Linux-Kernel und die jeweilige Anwendungssoftware, werden beim Start des Systems ausgeführt. Dabei wird mithilfe des Bootloaders zunächst die Hardware initialisiert, der Linux-Kernel in den Arbeitsspeicher kopiert und zum Start gebracht und schließlich die Anwendungssoftware geladen, nachdem der Kernel bestimmte Grundfunktionen wie etwa die Speicherverwaltung, die Kommunikation mit externen Geräten oder das Laden der jeweiligen Treiber übernommen hat. Während des Bootvorgangs wird noch das Dateisystem gemountet, also zugänglich gemacht, gegebenenfalls werden noch weitere Dateisysteme auf die gleiche Weise in das System eingehängt, um Zugriff darauf zu erhalten. In einigen Fällen wird auch eine Authentifizierung des jeweiligen Benutzers gestartet, bis schließlich die Anwendungssoftware bereit für die Benutzung ist. Zugeschnitten auf den jeweiligen Anwendungszweck Die so genannten Embedded Linux Systeme unterscheiden sich von herkömmlichen Desktopsystemen im Wesentlichen durch die Systemvorgabe. Gängige Linuxsysteme wie zum Beispiel Debian, Ubuntu oder Suse sind für diesen Einsatzzweck nur bedingt geeignet, da sie meist nur eine sehr begrenzte Anzahl von verschiedenen Prozessoren unterstützen, auch zeichnen sich diese Systeme nicht gerade durch kurze Startzeiten aus. Außerdem werden die eingebetteten Systeme meist bereits durch den Hersteller oder Verkäufer der jeweiligen Hardware installiert und nicht durch den Anwender. Wichtig ist es, dass die jeweilige Hardware nach der (meist sehr kurzen) Ladezeit des Betriebssystems sofort einsatzbereit ist. Die im Speicher abgelegte Software besteht in der Regel aus einem maßgeschneiderten System, mit dem zusammen nur die nötigsten Abhängigkeiten in die Firmware integriert wurden. Für viele Anwendungszwecke existieren bereits so gut wie fertige Lösungen, die lediglich bezüglich der Hardware und deren Treiber auf bestimmte Einsatzzwecke angepasst werden müssen. Warum Linux und nicht andere Systeme? Linux bietet einige wesentliche Vorteile gegenüber den gängigen anderen Betriebssystemen wie etwa Windows oder anderen Softwareplattformen. Hier sind die wichtigsten davon: • Linux ist als freie Software (mit freiem Quellcode) von jedermann nutzbar. • Verschiedene Bestandteile sowie Treiber sind aus frei verfügbaren Quellen erhältlich. • Die Software lässt sich sehr gut an individuelle Bedürfnisse anpassen. • Ein uneingeschränkter Zugriff auf die Quellen des Systems macht es unabhängig von einem einzelnen Anbieter. • Linux besitzt bereits eine ausgezeichnete eingebettete Netzwerkfähigkeit, die quasi gratis mit dem System geliefert wird. • Linux ist für viele Plattformen erhältlich, da es praktisch für alle gängigen Prozessoren nutzbar ist. • Je nach Umsetzung ist der Linux-Kernel äußerst ressourcenschonend einsetzbar. Nicht umsonst meistgenutztes Embedded-System Embedded Linux ist nicht ohne Grund das am meisten genutzte eingebettete Betriebssystem in der Industrie. Die Linux-Firmware ist für alle möglichen Geräte einsetzbar und lässt sich vor allem sehr gut an die jeweiligen Einsatzzwecke und Anwendungsgebiete anpassen. Es entstehen keinerlei Lizenzkosten pro produziertem Gerät. Einmal an den jeweiligen Anwendungszweck angepasst, kann das Linuxsystem ohne weitere Kosten problemlos auf allen Produkten genutzt werden, Anpassungen bei veränderten Hardwareanforderungen oder sonstigen Änderungen an den Geräten sind meist ohne größeren Aufwand möglich.

  • Die OLED gehört zu den so genannten Dünnschichtbauelementen, die im Gegensatz zu den üblichen Halbleiterbauteilen aus organischen und halbleitenden Materialien hergestellt werden. Besonders gern eingesetzt werden OLEDs überall dort, wo mit der modernen Dünnschichttechnik gearbeitet wird, beispielsweise in großflächigen Beleuchtungseinrichtungen oder für Displays und Bildschirme. Sogar biegsame Bildschirme lassen sich mithilfe der OLED-Technik herstellen. LED, OLED, LCD und die Unterschiede Am bekanntesten und am weitesten verbreitet sein dürften die herkömmlichen LEDs, die als Halbleiterbauelemente anfänglich nur als Kontrollleuchten oder in LED-Displays für Uhren oder Messgeräte zum Einsatz kamen, da sie eine zunächst begrenzte Leuchtstärke besaßen. Im Lauf der Zeit konnte die Leuchtkraft der Leuchtdioden allerdings stark erhöht werden, so dass sie in immer mehr Bereichen eingesetzt werden konnten, nach langer Zeit der Weiterentwicklung nun endlich auch als Leuchtmittel. Die Materialien, aus denen LEDs bestehen, sind kristallin und anorganisch. Eingesetzt werden sie unter anderem auch für LCD-Displays, die selbst nicht leuchten können und aus diesem Grunde eine Hintergrundbeleuchtung benötigen. Durch den Einsatz von RGB-LEDs (in allen denkbaren Farben leuchtende LEDs) können auch Displays mit relativ geringer Auflösung vor allem für großflächige Anwendungen hergestellt werden. Die OLEDs sind eine moderne Technologie, mit deren Hilfe sich sehr flachen Leuchtmittel oder Displays sowie großflächige Bildschirme herstellen lassen. Sie bestehen im Gegensatz zu anderen Halbleiterbauelementen aus organischen Materialien und erfordern einen komplett anderen Herstellungsprozess. Flache Bauweise durch Dünnschichttechnik Die genannte Dünnschichttechnik ist eine moderne Herstellungsart, die unter anderem auch bei der Fertigung von Halbleiterbauelementen eingesetzt wird. Die Besonderheit dieser Technik besteht darin, dass viele Halbleiterschichten von zum Teil nur wenigen Nanometern bis hin zu einigen Mikrometern Stärke eingesetzt werden können. Die OLEDs profitieren von dieser Technik, da aufgrund der modernen Herstellungsverfahren sehr flache Bauelemente wie beispielsweise Beleuchtungseinrichtungen oder Displays hergestellt werden können, ganz im Gegensatz zur herkömmlichen LED-Technik oder anderen Displaytechnologien. Sogar flexible Bauelemente können hergestellt werden, auch wenn diese durch eine übermäßige mechanische Beanspruchung sehr schnell beschädigt werden können. Vorteile von OLEDs vor allem in Bildschirmen Anders als LCD-Displays oder Bildschirme erzeugen mit OLEDs hergestellte Displays selbst Licht, sie benötigen daher keine Hintergrundbeleuchtung. Damit fällt ein wesentlicher Kostenfaktor und Energiefaktor aus, der für Einschränkungen im Bereich der herkömmlichen LCD-Displays sorgt. Gleichzeitig eignen sich diese Bauteile auch für die Herstellung von Monitoren oder Displays mit einer sehr hohen Auflösung. Da zum Teil nur eine einzige Halbleiterschicht benötigt wird, können äußerst dünne Displays hergestellt werden, die noch nicht einmal eine zusätzliche Beleuchtung benötigen. Für eine großflächige Anzeige beispielsweise können Displays mit einer Gesamtstärke von weniger als fünf Millimetern gebaut werden, was mit den meisten LCD Anzeigen nicht möglich ist. Es gibt aber noch einige andere Vorteile, wie zum Beispiel folgende: Mit OLEDs bestückte Displays erzeugen einen wesentlich höheren Kontrast als handelsübliche LCD-Anzeigen. Die Beleuchtung für einzelne Pixel kann separat angesteuert werden. Dadurch sind komplett tiefschwarze Hintergründe und wesentlich bessere Kontraste möglich. Mithilfe von OLEDs hergestellte Displays sind äußerst stromsparend. Der Betrachtungswinkel ist deutlich größer als bei vergleichbaren LCD-Anzeigen. Mit OLEDs hergestellte Displays bieten sehr schnelle Reaktionszeiten (bzw. Bildwechsel). Es gibt aber auch Nachteile Mit OLEDs bestückte Anzeigen und Bildschirme bieten zahlreiche Vorteile, die zum Teil sehr beeindruckend in Szene gesetzt werden können. Allerdings haben sie auch ein paar Nachteile, zu denen beispielsweise die folgenden gehören: Die Herstellung von mit OLEDs bestückten Displays ist (noch) recht teuer. Die Lebensdauer der Anzeigen ist begrenzt. Die Lichtausbeute ist etwas geringer als bei Haus anorganischen Materialien hergestellten LEDs. OLEDs reagieren deutlich empfindlicher auf hohe Luftfeuchtigkeit oder Temperaturschwankungen. Außerdem reagieren sie empfindlicher auf viele andere Stoffe und benötigen daher eine sehr gute Kapselung, durch welche wiederum die Flexibilität der Bauteile beeinträchtigt werden kann. Bei der Verwendung als Leuchtmittel haben OLEDs eine geringere Lichtausbeute als LEDs. Die mit dieser Technologie versehene Displays sind mechanisch sehr anfällig und können bei übermäßiger Beanspruchung sehr schnell Ausfälle ausweisen, beispielsweise nicht mehr leuchtende Bereiche (die so genannten Dark Spots). Organische LEDs aus kohlenstoffhaltigen Stoffen Natürlich erfolgt die Herstellung von OLEDs nach chemisch komplizierten Verfahren, weshalb der Begriff organische etwas verwirrend klingt. Schließlich handelt es sich um elektronische Bauteile, die sonst hauptsächlich mit Begriffen wie Silizium oder anderen anorganischen Stoffen in Verbindung gebracht werden. Die organische Leuchtdiode bzw. LED und deren Namensgebung basiert mehr auf dem englischen Begriff „organic“, welcher in diesen Zusammenhang mit den kohlenstoffhaltigen Bestandteilen dieser Halbleitertechnologie zu nennen wäre. OLEDs mit verschiedenen Leuchtfarben und deren Lebensdauer Die Herstellung von OLEDs mit verschiedenen Leuchtfarben basiert wie bei den anorganischen bzw. herkömmlichen LEDs auf der Verwendung verschiedener Materialien. Hieraus ergibt sich ein Problem, da die zur Erzeugung aller Regenbogenfarben notwendigen roten, grünen und blauen Leuchtpunkte eben aus verschiedenen Materialien bestehen, die verschiedene Lebensdauern aufweisen. Gerade bei der Herstellung von Bildschirmen ergibt sich hieraus das Problem, dass im Lauf der Zeit an den Bildschirmen Farbverfälschungen auftreten können. Unterschiede bei der elektrischen Ansteuerung der Anzeigen Im Gegensatz zu LCD-Anzeigen sind mit OLEDs versehene Displays selbstleuchtend, das heißt, sie benötigen keine zusätzliche Hintergrundbeleuchtung. Hieraus ergibt sich allerdings auch ein Problem bei der Ansteuerung. LCD-Anzeigen benötigen eine Ansteuerung mit nur äußerst geringer elektrischer Leistung, da sie an sich bereits sehr energiesparend sind. Die Beleuchtung erfolgt dauerhaft durch LEDs oder andere Leuchtmittel. Da OLEDs selbstleuchtend sind, benötigen diese eine solche Hintergrundbeleuchtung, dafür aber eine wesentlich höhere elektrische Leistung für die Ansteuerung, die aus diesen Gründen aufwendiger aufgebaut sein muss, um die dafür notwendigen Leistungen zu erzeugen. Es handelt sich also um eine komplett anders funktionierende Technologie, die auch eine neue Art von Ansteuerung benötigt.

  • SCADA steht für Supervisory Control and Data Acquisition, was auf deutsch soviel heißt wie das Überwachen und Steuern technischer Prozesse mithilfe von Computersystemen. Es handelt sich um einen sehr wichtigen Teilbereich, der im Zusammenhang mit Begriffen wie der Industrie 4.0 eine immer größer werdende Rolle spielt. Automatisch ablaufende Prozesse innerhalb von Fertigungsstraßen oder in anderen Bereichen werden sowohl auf zentrale als auch auf dezentrale Systeme weitergeleitet, und das zum Zweck einer Überwachung, Visualisierung sowie Steuerung und Regelung dieser Fertigungsprozesse mithilfe von mehr oder weniger entfernten Computern. https://www.youtube.com/watch?v=nlFM1q9QPJw Sehr oft beispielsweise erfolgt die Kommunikation der SCADA-Systeme mithilfe von modernen Internetübertragungstechniken, im lokalen Bereich auch über ältere und bereits seit langer Zeit bewährte Verbindungstechniken wie zum Beispiel Punkt-zu-Punkt-Kommunikationswege. Welche Aufgaben haben SCADA-Lösungen heute? Die Grundlagen für das Überwachen und Steuern technischer Prozesse innerhalb von Fertigungen sowie in anderen industriellen Bereichen bilden heute in mehrere Schichten unterteilte Automationen. Die erste Schicht (oft auch als Level 1 bezeichnet) ist die so genannte prozessnahe Schicht, während eine weitere Schicht der Prozessüberwachung (beispielsweise Level 2) dazu dient, eine Optimierung der Level-1-Automation zu erreichen. Weitere Level dienen dazu, eine Planung von Arbeitsprozessen durchzuführen sowie eine Qualitätssicherung und die notwendige Dokumentation. Eine sehr wichtige Funktion von SCADA besteht außerdem darin, die üblicherweise in Level 1 generierten Daten an das System weiterzugeben und zu Zwecken der Überwachung in einer benutzerfreundlichen Darstellungsweise anzuzeigen, so dass bei Bedarf steuernd in Prozess eingegriffen werden kann. Folgende Aufgaben haben solche Systeme heute: Überwachung und Steuerung von Produktionsaufgaben und Fertigungsprozessen Management von verschiedenen Abläufen Sammeln und Verwalten von relevanten Daten über Fertigungsprozesse Vernetzung und Automation von Maschinen moderne Kontrollsysteme nutzen Fertigungsprozesse in Industrial Cloud Computing Umgebungen integrieren Unterschiede zu Human-Machine-Interfaces (HMI) Ein Human-Machine-Interface kann durchaus ein Teil eines SCADA-Systems sein. Tatsächlich gibt es einige Ähnlichkeiten zwischen beiden Systemen. Beide Systeme beschreiben Teile so genannter Industrial Control Systems, kurz ICS, einer sehr allgemeinen Beschreibung der Automation mithilfe von modernen Steuerungssystemen. Das HMI beschreibt einen relativ einfachen Weg, um eine Kommunikation bzw. Interaktion zwischen Mensch und Maschine zu ermöglichen. Systeme wie SCADA geht noch einen Schritt weiter, indem einige Komponenten direkt gesteuert werden können oder eine Kommunikation mit Ihnen möglich ist. Es handelt sich um eine vernetzte Automation von Maschinen, da ein solches System mit allen Komponenten einer industriellen Steuerung verbunden sein kann bzw. eine Verbindung mit mehreren Komponenten möglich ist. Dies ist bei einem Human-Machine-Interface meistens nicht der Fall. Wofür SCADA (unter anderem) steht Ein SCADA-System lässt sich bei Bedarf mit unterschiedlichen Geräten, Maschinen oder Ausrüstungen verbinden. Diese Verbindung kann über verschiedene Kommunikationssysteme stattfinden wie beispielsweise 2G, 3G, 4G oder CDMA und andere GSM-Technologien sowie einige andere Netzwerktechniken. Die Kontrollsysteme bieten die Möglichkeit einer jederzeit im Bedarfsfall herstellbaren Kommunikation. Diese kann selbstverständlich nicht nur über mobile Kommunikationswege sichergestellt werden, sondern auch über herkömmliche Ethernet-Netzwerke wie LAN oder auch WAN. Die Gegenstellen zu den Kontrollsystemen für industrielle Anwendungen bilden intelligente Technologien. Die Sicherheit spielt eine wesentliche Rolle bei SCADA Wenn für verschiedene Bereiche industrieller Fertigungsanlagen sowie in anderen sensiblen Bereichen öffentliche Kommunikationswege wie beispielsweise Mobilfunknetze zum Einsatz kommen, ist die Sicherheit ein wesentlicher Faktor bei der Umsetzung solcher Systeme, der leider häufig noch vernachlässigt wird. Angriffe auf isolierte SCADA-Systeme hat es in der jüngsten Vergangenheit tatsächlich gegeben. Das zeigt, wie wichtig die Sicherheit auch in verschiedenen Bereichen Industrie 4.0 sowie in den damit verbundenen Technologien geworden ist. Bereits jetzt ist die Sicherheit ein sehr wichtiges Thema im Bereich der Industrie 4.0. Sehr wichtig ist es zum Beispiel, die Systeme in Bezug auf die Sicherheitstechnologien stets aktuell zu halten und in regelmäßigen Abständen notwendige Sicherheitsupdates anzuwenden.

  • Die Nachfrage nach UVC LEDs bei der koreanischen Firma Seoul Viosys ist seit Ausbruch der Corona Pandemie drastisch gestiegen, wie die Firma in ihrer Pressemitteilung berichtet. UVC Strahlung ist zum Desinfizieren und Sterilisieren geeignet. Die Nachfrage nach diesen UV-C LEDs ist in den letzten Wochen um 500 Prozent gestiegen 90% weniger Coronaviren in 60 Sekunden Nach nur einer Minute Bestrahlung ist die Belastung mit Keimen bereits um 90% reduziert, so das Unternehmen. UV Licht wird zum Desinfizieren in der Wasseraufbereitung eingesetzt. Auch die NASA sterilisiert die Bauteile für die ISS. Und nun kommen Anfragen diese Technik speziell auch gegen Corona einzusetzen, wie das Unternehmen in seiner Pressemitteilung schreibt. https://www.youtube.com/watch?v=z4qrnMlhbpE So wirkt UV-Strahlung UV Strahlung ist unsichtbares, hochenergetisches Licht im Bereich zwischen 100 und 400nm. Man unterscheidet zwischen UVA, UVB, UVC und VUV Strahlung, wobei letztere die energiereichste Strahlung ist. Es ist bekannt, dass dieses UV-Licht (UVA & UVB) die Haut schädigt, und dass man sich davor schützen muss. UVC wird in der Atmosphäre absorbiert. Keime haben nun keinen Schutzmechanismus gegen diese Strahlung entwickelt. (Vgl Publikation „Wasseraufbereitung mit UV LEDs“) Das ist der Ansatz die UVC-Strahlung zum Desinfizieren von Wasser oder zum Sterilisieren von Geräten und Gebäuden zu verwenden. Die Strahlung greift die DNS an und zerstört so die Reproduktion. „The disinfection of surfaces is perhaps the simplest and most predictable application of ultraviolet germicidal radiation. UV is highly effective at controlling microbial growth and at achieving sterilization of most types of surfaces. „, wie im Ultraviolet Germicidal Irradiation Handbook von Wladyslaw Kowalski aus dem Jahre 2009 nachzulesen ist. https://www.youtube.com/watch?v=8fh4LfUc-AI Längere Lebensdauer der LEDs Auch wenn die UVC LEDs bisher vermehrt in der Wissenschaft eingesetzt wurde sind nun auch im medizinischen Bereich denkbar. Im Gegensatz konventionellen UV Lampen erzeugen die LEDs kein Ozon und werden nicht heiß und verbrauchen auch weniger Energie. Die Lebensdauer ist mittlerweile mit 10-50.000 Stunden angegeben. Weitere Infos bei http://www.seoulviosys.com/en/technology/uvled/

  • Als HMI oder auch Human Machine Interface wird in der Regel die Bedieneinheit oder das Bedienteil an einer Maschine bezeichnet, an dem der Mensch die Maschine steuert und wo ihm wichtige Informationen für den Betrieb einer Maschine oder eines Gerätes zur Verfügung gestellt werden. Das HMI ist die wichtigste Schnittstelle für den Benutzer Das Human Machine Interface ist der Teil einer Maschine oder Maschineneinrichtung, an dem eine Interaktion zwischen dem Mensch und der Maschine stattfindet, oder um es anders zu sagen, wo der Mensch eine Maschine bedient. Doch das ist längst nicht alles, da diese HMI Schnittstelle auch wichtige Informationen für den Benutzer bzw. Bediener bereitstellt. In einer Fabrik beispielsweise wird der Benutzer der Maschine über das HMI Interface auch wichtige Informationen über den momentanen Produktionsablauf erhalten, beispielsweise über ein Display, das in fast allen modernen Maschineneinrichtungen innerhalb von Fabriken vorhanden ist. Bei Maschinen wird das meist über ein modernes Bedienpult realisiert, das aus Touch Display und zusätzlichen Bedienknöpfen besteht. Es muss aber nicht unbedingt eine Maschine in einer Fabrik sein, in der komplizierte Fabrikationsabläufe stattfinden. Auch wesentlich einfachere Geräte für den Haushalt enthalten solche Interfaces. Die Mensch-Maschine-Schnittstelle in komplexen Arbeitsumgebungen Es gibt zahlreiche Einsatzgebiete für die Schnittstelle zwischen dem Menschen und der Maschine. Einer davon wurde bereits genannt, nämlich die Kommunikation von Firmenangestellten mit Maschinen oder Produktionsanlagen in Firmen. Hier dienen die Schnittstellen dazu, möglichst kompakt viele Informationen des umfangreichen Herstellungsprozesses von verschiedenen Produkten dem Bediener einer Maschine zu vermitteln und diesen zu ermöglichen, in den aktuellen Produktionsprozess einzugreifen oder ihn zu steuern, wenn dies notwendig ist. Beim Einsatz der Schnittstellen ist es sehr wichtig, diese möglichst bedarfsgerecht und bedienfreundlich zu gestalten, um den gesamten Herstellungsprozess verschiedenster Produkte so effizient und kosteneffektiv wie möglich zu machen. Die Entwicklung der HMI Schnittstellen zwischen Menschen und Maschinen Wenn man einmal bei den Anfängen zu Beginn der Industrialisierung und Technisierung unserer Gesellschaft beginnt, bestanden die ersten Human Machine Interfaces aus einfachen Schaltern und hatten einige Kontrollleuchten. Die Schalter dienen dazu, ein Gerät ein- oder auszuschalten, die entsprechenden Kontrollleuchten zeigten dem Benutzer die Betriebsbereitschaft dieser Maschinen oder Geräte. Je weiter die Technik fortschritt, desto umfangreicher wurden diese Human Machine Interface. Aus den einfachen Schaltern und Kontrollleuchten (die auch bis in die heutige Zeit noch verwendet werden) wurden elektronische Bedienteile mit Displays und Tastenfelder. Später entstanden computergesteuerte Abläufe und Maschineneinheiten, in denen die tatsächliche Steuerung verschiedene Softwareprogramme übernahmen. Diese Systeme werden auch heute noch eingesetzt. Die Darstellung der für den Benutzer relevanten Informationen erfolgt über Bildschirme, die meistens als Touchscreens ausgeführt sind und gleichzeitig die Bedienung und den Eingriff in die Produktionsabläufe ermöglichen. Vor- und Nachteile von Human Machine Interfaces Ohne entsprechende Schnittstellen für den Benutzer kommt heute kaum noch eine Maschine aus. Dies gilt keineswegs nur für komplizierte Produktionsmaschinen in entsprechenden Betrieben, sondern auch im Haushalt. Die Vorteile der HMI liegen klar auf der Hand: – wichtige Informationen werden jederzeit übersichtlich dargestellt – einfache Steuerung des Maschinenbetriebes – sofortige Information bei Ausfällen von Maschinenteilen – übersichtliche Darstellung und damit vereinfachte Bedienung – durch Computertechnik sehr platzsparende Bedieneinheiten möglich – sehr häufig Bildschirm und Eingabeelement in einer Einheit – örtliche Trennung von Steuereinheit und Maschine problemlos möglich – durch die Computersteuerung Vernetzung von Maschinen und Steuerungsprozessen möglich – Anpassung der Schnittstellen alleine durch die Veränderung von Software Human Machine Interface haben auch Nachteile, aber werden in der Regel durch die Vorteile der Systeme überwogen. – meist relativ teure Steuerungsprozesse und nicht geringe Wartungskosten – anfänglich noch relativ empfindliche Steuerungseinheiten in Form von Tastaturen oder Bildschirmen – oft ist eine gründliche Einweisung und Einarbeitung notwendig – hohe Kosten bei Ausfällen oder Defekten – relativ oft sind Softwareaktualisierungen notwendig – durch Computersysteme höhere Anfälligkeit für Manipulationen HMI – technischen Grundlagen Die technischen Grundlagen für die Schnittstellen zwischen den Menschen und den Maschinen bilden zum einen die Maschineneinheiten, die heute in der Regel miteinander vernetzt werden und die Steuerungseinheiten in Form von Computersystemen, bei denen die eigentliche Steuerung mithilfe von speziell ausgelegter HMI Software erfolgt. Sehr wichtig ist dabei eine Individualisierung der Software und auch der verschiedenen Maschinenkomponenten, wobei alle Komponenten aufeinander abgestimmt sein sollten für eine höhere Effizienz und Wirtschaftlichkeit der Systeme. Im Wesentlichen bestehen die Systeme aus folgenden Komponenten: – die maschinenrelevanten Teile (Sensoren und Aktoren) – die steuerungsrelevanten Maschinenteile (Computer und HMI Software sowie Steuerungseinheit in Form von Tastatur und Display oder Touchscreen) – die Vernetzbarkeit von einzelnen Produktionsbereichen und den entsprechenden Maschinen samt Steuerungen Die Digitalisierung und Industrie 4.0 Human Machine Interfaces spielen eine sehr wichtige Rolle bei der Digitalisierung von Produktionsprozessen innerhalb von Fabriken, auch unter Industrie 4.0 bekannt. In der Regel versteht man darunter die moderne Computertechnik als zentrale Steuereinheit für verschiedenste Produktionsbereiche, die miteinander vernetzt werden. Ein wichtiger Punkt dabei ist die mögliche Anpassung von laufenden Prozessen quasi in Echtzeit, bei der jederzeit Eingriffe in laufende Produktionsprozesse möglich sind, wann immer dies notwendig ist. Im Wesentlichen geht es dabei um die mögliche Anpassung von allen möglichen Produktionsprozessen und dem Eingriff in diese bei möglichst geringen Ausfällen von Maschinen. Industrie 4.0 ist dabei die Bezeichnung für die umfassende Digitalisierung im Bereich der industriellen Produktion, wobei es insbesondere auf die Vorbereitung auf zukünftige Entwicklungen ankommt. Als technische Grundlage dienen intelligente und miteinander vernetzte Systeme in Form von Panel-PCs, welche die Herzstücke der meisten HMI-Anwendungen bilden. Diese Panel-PCs sind optimal auf die jeweiligen Anwendungsbereiche abgestimmt und können im Gegensatz zu den meisten anderen PCs auch in harten Arbeitsumgebungen eingesetzt werden. Viele der Modelle sind mit einem Spritzwasserschutz versehen und überzeugen durch ihre robuste Bauweise. Fazit: Das Human Machine Interface und Begriffe wie Industrie 4.0 prägen heutige Produktionsprozesse und machen die Weiterentwicklung der Automatisierung innerhalb von Produktionen deutlich. Eine sehr große Rolle spielen hier die Steuerungssysteme, welche aus Gründen der Übersichtlichkeit oft über Touch-Displays bedient werden. Um für das jeweilige Einsatzgebiet am besten geeignet zu sein, werden die Panel-PCs sogar häufig nach den Vorgaben der Auftraggeber angefertigt bzw. auf deren Herstellungsprozesse und an die jeweiligen Umgebungsbedingungen angepasst. Innovative HMI-Lösungen sind heute gefragter denn je. Dabei wird größter Wert gelegt auf einen optimierten und mehr …

  • Die Abkürzungen PCAP oder PCT sind gleichbedeutend und stehen für Projective Capacitive Touch / Projiziert Kapazitiver Touch. Die Technologie, die hinter diesen Begriffen steht, ist besser bekannt als Smartphone Touchscreen – der Durchbruch kam mit dem iPhone.   Wie funktioniert die PCAP-Technologie? Durch die Berührung mit dem Finger oder einem leitfähigen Eingabestift wird die elektrische Kapazität verändert. Hinter der Glasscheibe des Bildschirms befindet sich ein transparenter Sensor. Die Berührungen, also die Veränderungen der Kapazität, werden durch die Glasscheibe “hindurchprojiziert”. Von einem integrierten Controller werden diese Veränderungen registriert und gemessen. Der Controller wandelt sie um in zweidimensionale Positionsdaten (X,Y). So werden die Touch-Positionen bestimmt. Die Methode der projiziert-kapazitiven Berührungserkennung (PCAP Touch) ermöglicht dem Sensor, mehr als nur einen Berührungspunkt simultan zu erkennen, wodurch der gewünschte Multi Touch Effekt entsteht. Diese Touch-Variante wird inzwischen von praktisch allen Smartphones und Tablet-Computern verwendet, z.B. beim Zoomen. Wie sind PCAP Touch Screens aufgebaut? PCAP Touch Screens bestehen aus mehreren Schichten. Die Hauptschicht wird Touch Sensor, Cover Lens bzw. Cover Glass genannt. Sie besteht entweder aus Glas oder Folie und wird direkt mit dem Touchcontroller verbunden. In dem Sensor ist also das Herzstück zu sehen. Er wird auf der einen Seite in einem hochspezialisierten Verfahren direkt mit dem LCD-Panel verklebt; die andere Seite wird – ebenfalls mittels einer Verklebung – mit der Glas- oder Kunststoffoberfläche verbunden. Die Bedienung des Sensors erfolgt also auf der praktisch verschleißfreien Oberfläche. Wie bedient man PCAP Touch Screens? Kapazitive Touchscreens können mit leitfähigen Eingabestiften oder mit dem bloßen Finger bedient werden. Übrigens spielt es keine Rolle, ob die Finger nun warm oder kalt sind. Herkömmliche Eingabestifte sind nicht geeignet, und wer schon einmal im Winter versucht hat, mit dicken Handschuhen sein Smartphone zu bedienen, der weiß, dass das ebenfalls nicht möglich ist. Es gibt allerdings Handschuhe mit einer speziellen Beschichtung an den Fingerkuppen, welche die Bedienung des PCAP Touchsreens erlauben. Vorteile der PCAP-Technologie Durch den Multitouch-Effekt kann der Screen mit bis zu zehn Fingern gleichzeitig bedient werden. Es ist ein Design mit komplett glatten Oberflächen – ohne Fugen oder Stöße – möglich. Der Touchscreen kann individuell hinterdruckt werden. Der Touchscreen weist eine sehr lange Lebensdauer auf, denn er funktioniert auch, wenn die Bedienungsoberfläche Kratzer oder Sprünge aufweist. Der Touchscreen ist beständig gegenüber Wasser. Er ist im Vergleich mit anderen Touch-Technologien resistenter gegenüber Flüssigkeiten, Chemikalien und Schmutz. Der Touchscreen ist leicht zu reinigen. Er hat eine sehr hohe Transparenz und Sichtbarkeit und ist ideal geeignet für den Außeneinsatz, da er robust und vandalensicher verbaubar ist. Nachteile der PCAP-Technologie Die Bedienung ist nur mit den Fingern, mit dünnen Handschuhen und mit speziellen leitfähigen Eingabestiften möglich. Von dieser Einschränkung sind insbesondere auch Menschen mit Handprothesen betroffen, da sie nur mit speziellen Handschuhen oder Eingabestiften die Möglichkeit haben, die Bedienfelder zu aktivieren. Im Vergleich mit anderen Technologien sind PCAP Touchscreens auch etwas kostenintensiver. Anwendungsgebiete für die PCAP-Technologie Die prominentesten Anwendungsbeispiele für kapazitive Touchscreens sind Tabletcomputer, Smartphones bzw. Handys mit Touchscreen, Electronic Organizer, Personal Digital Assistants, tragbare Media Player und Spielkonsolen. Mittlerweile findet die PCAP-Technologie aber auch ihren Einsatz in der Industrieautomation, in der Lebensmittelindustrie oder in der Chemie- und Pharmaindustrie. Durch ihre Eignung für den Außeneinsatz findet man kapazitive Touchscreens bei Banking-Terminals oder sonstigen Automaten. Sie sind zudem aufgrund ihrer glatten, fugenlosen Oberflächen geeignet für Anwendungen im Medizinsektor. Auch ADM electronic verwendet für deren Industrie Monitere und Panel PCs immer öfter diese PCAP Touch-Technologie. Relevante Produkte Industrie Computer „Slim Line“ Edelstahl Panel PCs „Taurus Line“ Quellen https://de.wikipedia.org/wiki/Touchscreen#Projiziert-kapazitive_Touchscreens https://de.wikipedia.org/wiki/Touchscreen#/media/File:TouchScreen_projective_capacitive.svg

  • Lange Distanzen schaffen Probleme: Wenn beispielsweise ein Rechner in über 10 Meter Entfernung vom Bildschirm steht, auf den sein Signal übertragen werden soll, funktioniert das kaum ohne Störungen. Verbindet man Rechner und Steuerungsgerät nämlich mit einem DVI Kabel, das länger als 10 Meter ist, kann parallel kein USB Signal übertragen werden. Dadurch fällt die Kontrolle des Rechners über einen Touchscreen aus. Auch das Anschließen eines Druckers per USB wird ab einer Entfernung von 10 Metern unmöglich, weil das Signal sich ebenfalls verliert. Die Lösung Als Lösung für dieses Problem kann ein Adderlink eingesetzt werden. Dieser besteht aus einer kleinen Übertragerbox, die direkt an den PC angeschlossen wird, einem Kabel von bis zu 50 Metern Länge, um die Distanz zu überbrücken und einer Empfängerbox, die an den zu erreichenden Monitor angeschlossen wird. Was der Adderlink möglich macht Der Adderlink ermöglicht nicht nur eine störungsfreie Übertragung des Bildsignals, sondern auch die Fernsteuerung des PCs mit USB-Geräten wie einer Maus oder einer Tastatur. Sogar der Anschluss eines USB Sticks in einer Entfernung von bis zu 50 Metern wird möglich. Die Übertragung von Audiosignalen ist ebenfalls kein Problem. Für welche Kunden ein Adderlink wichtig werden kann Nach unserer Erfahrung kann ein Adderlink vor allem für diejenigen unserer Kunden wichtig werden, die ihre Rechner dezentral positionieren (müssen). Beispielsweise für einen Kunde aus der Pharmaindustrie, dessen PCs aus Giftgründen nicht im Laborbereich stehen dürfen. Im Labor befindet sich dann nur das Bedienelement bzw. der Monitor, über den der PC gesteuert werden kann. Dieses wird über einen Adderlink mit dem eigentlichen PC verbunden. Beispiel für die Verbindung eines Adderlinks mit einem Industriemonitor Um die technischen Möglichkeiten eines Adderlinks zu verdeutlichen, möchten wir Ihnen ein Beispiel mit einem 17” Industriemonitor geben. Dabei soll ein 17″ Industriemonitor aus der „Taurus“ Line, dessen Gehäuse aus gebürstetem Edelstahl besteht und der mit zusätzlich einem 17’’ resistiven Touchscreen und einem USB/VGA Extender zur Übertragung von Video-, Touch und Tastatursignalen über LAN ausgestattet ist gezeigt werden. Betrieben wird er mit einer Spannung von 24 VDC und gemäß den Anforderungen des Kunden besitzt er einen Schutzgrad IP67. Montiert ist der Industriemonitor mit einer Befestigung VESA 100; außerdem besitzt er zwei Anschlüsse für LAN und Stromversorgung mit Schutzgrad IP65. Um all seine Anschlüsse gut nutzen zu können, kann er wie in der folgenden Skizze beschrieben an den PC angeschlossen werden. Relevante Produkte: 24 Zoll Edelstahl Monitor – Schutzklasse bis IP67 17″ Edelstahl Touch Monitor mit TRUE FLAT Front – „Taurus“ Line

  • Zertifikate geben Sicherheit. Wenn etwas nach einer bestimmten Richtlinie zertifiziert ist, kann man darauf vertrauen, dass diese Richtlinie auch erfüllt wird. Das ist gerade im Kontext des globalen Handels und der Freihandelszone der EU wichtig. Um klare Handelsgrundlagen zu schaffen, gibt es deshalb innerhalb der EU eine Vielzahl von Normen. Ihre Einhaltung wird sichergestellt durch die CE-Kennzeichnung. Allgemeines zur CE-Kennzeichnung und zur FCC Zertifizierung Was ist die CE-Kennzeichnung? “CE” steht bei der CE-Kennzeichnung für Communauté Européenne (Europäische Gemeinschaft). So gekennzeichnete Produkte erfüllen die entsprechenden Richtlinien der EU, oder, um die genaue Beschreibung der EU-Verordnung 765/2008 zu zitieren, “dass das Produkt den geltenden Anforderungen genügt, die in den Harmonisierungsrechtsvorschriften der Gemeinschaft über ihre Anbringung festgelegt sind.” Welche Funktion hat die CE-Kennzeichnung? Das CE-Zertifikat wird vom TÜV Süd als der “Reisepass” für Produkte in Europa bezeichnet. Durch diese Kennzeichnung kann der Hersteller die Möglichkeiten der Freihandelszone voll nutzen und seine Produkte europaweit ohne weitere Probleme vertreiben. Es sichert die “Freiverkehrsfähigkeit” der Maschinen, Produkte oder Anlagen. Wer trägt die Verantwortung für die CE-Kennzeichnung? Das CE-Kennzeichen wird vom Hersteller angebracht und verantwortet. Bei Bedarf muss ein Nachweis der CE-Zertifizierbarkeit erbracht werden; ansonsten kann der Handel (oder die “Inverkehrbringung”) durch die Marktaufsichtsbehörde untersagt werden. Häufig suchen sich die Hersteller Experten, die sie bei der CE-Kennzeichnung unterstützen. So arbeiten wir beispielsweise mit dem TÜV Süd zusammen, um eine einwandfreie Zertifizierung zu sichern. Was ist die FCC Zertifizierung? Wie die EU haben auch die USA Normgrundlagen für ihre Freihandelszone. Im Kommunikationsbereich wird deshalb durch die Federal Communications Commission (FCC) sichergestellt, dass die eingeführten bzw. vertriebenen Produkte den Normen entsprechen. Die FCC Zertifizierung ist also die US-amerikanische Entsprechung der CE-Kennzeichnung. ADM und CE-Kennzeichnung bzw. FCC Zertifizierung Um am internationalen Markt teilnehmen zu können achten auch wir auf die Zertifizierungen unserer Produkte. Relevant für Monitore, Displays und Panels sind dabei die folgenden Normen und Verordnungen, die als Prüfgrundlagen dienen. Prüfgrundlage CE Prüfung: EN 55022:2010, Class A > EC Konformität / EMV Prüfung EN 61000-3-2:2006 + A1:2009 + A2.2009 EN 61000-3-3:2008 EN 55024:2010 Prüfgrundlage FCC Prüfung: FCC Code of Federal Regulations, CFR 47, Part 15, Sections 15.107 / 15.109 (class A) Industry Canada Interference-Causing Equipment Standard ICES-003 issu 4, Section 5.2 / 5.4 (Digital Apparatus) Spezielle Normen und IP Prüfung In manchen Fällen sind weitere Normen zu beachten – zum Beispiel bei der Ausfuhr unserer Produkte in den kanadischen Handelsraum oder bei der Kennzeichnung von Produkten mit erhöhten Schutzanforderungen. Zentral sind dafür vor allem die folgenden Normen: EN 60529 IEC 60950-1:2009 EN 60950-1:2011 UL 62950-1:2007 CAN /CSA-C22.2 – 60950-1A:2007 Ein Beispiel für einen Zertifizierungsprozess Als Beispiel für einen erfolgreichen Zertifizierungsprozess kann die Entwicklung eines Panel PCs zusammen mit einem Kunden dienen, der seinen Firmensitz in Großbritannien hat. Dabei verantwortete ADM die Entwicklung des Geräts und unser Partner TÜV Süd wickelte den Prüfprozess ab. Der erste Schritt in Richtung Zertifizierung: Entwicklung des Prototypen Um zur Zertifizierung zu kommen, ist zunächst die Entwicklung eines Prototypen nötig. Dabei definiert der Kunde die Anforderungen, die das Produkt haben muss. In diesem Fall sollte ein 10” Panel PC vom Typ Taurus geliefert werden, der die IP65 Schutzklasse hat, d.h. er ist staubdicht und gegen Strahlwasser aus beliebigem Winkel geschützt. Nachdem wir das entsprechende Angebot erstellt und den Prototypen gefertig hatten, testete der Kunde das Produkt. In diesem Zwischenschritt waren Änderungen des Prototypen möglich. Nach der Freigabe des Prototypen durch den Kunden folgte im zweiten Schritt die Zertifizierung. Welche Daten vom Kunden geliefert werden müssen: Für die Entwicklung des Prototypen liefert der Kunde verschiedene Daten. Dazu zählen die gewünschten Spezifikationen und Daten über den Test des Gerätes beim Kunden und im zukünftigen Einsatzgebiet. In unserem Beispiel sollte der Panel als Steuerpanel in einer Maschine eingesetzt werden. Um den Test des Prototypen abzuschließen, war es hier nötig, dass ein Prototyp der Maschine bereits vorhanden war, in den der Panel eingebaut werden konnte. Der zweite Schritt der Zertifizierung: Prüfung durch TÜV Süd Im Anschluss daran beauftragten wir unseren Partner TÜV Süd mit der Prüfung des Produktes. In unserem Beispiel ging es um die Prüfung der Schutzklasse IP65. Diese zusätzliche Prüfung war wichtig, da das Produkt in diesem Fall zusätzlich zur standardmäßigen CE- und FEE-Prüfung auch staub- und wasserfest sein sollte. Die zusätzliche Überprüfung dieser Eigenschaften dauert in der Regel zwei Wochen. Kommt es zu Komplikationen bei der Zertifizierung, kann sich dieser Prüfungsprozess weiter verlängern. Am Ende des zweiten Schritts erhielt das Produkt die entsprechenden Zertifikate, konnte produziert und an den Kunden in Großbritannien ausgeliefert werden. Dauer des Zertifizierungsprozesses Der Zeitaufwand ist für die Planung des Kunden sehr wichtig. Der Zertifizierungsprozess dauert in der Regel von der Erstellung des Prototypen bis zur Freigabe durch den TÜV mindestens sechs Monate. Quellen: http://de.wikipedia.org/wiki/Schutzart#Normung” http://de.wikipedia.org/wiki/CE-Kennzeichnung http://www.tuev-sued.de/industrie_konsumprodukte/dienstleistungen/gesetzliche_anforderungen/ce-kennzeichnung http://de.wikipedia.org/wiki/Federal_Communications_Commission