conneXXt
conneXXt
IFOY Gewinner

Mensch und Maschine

Wie Mensch und Maschine in Zukunft kommunizieren

Die Art und Weise, wie Menschen und Maschinen miteinander interagieren, hat sich in den letzten Jahren stark gewandelt. Und die Zukunft verspricht eine noch rasantere Entwicklung. Grund zur Sorge oder Anlass zur Freude?

„Computer, auf den Schirm.“ Mit diesem Sprachbefehl lässt sich Captain Kirk, Kommandant des legendären Raumschiffs Enterprise, verschiedenste Dinge auf dem riesigen Bildschirm der Kommandobrücke anzeigen – seien es fremde Planeten, eingehende „Anrufe“ oder mysteriöse Raumstationen. Dies ist nur eines von vielen Beispielen, wie sich die Drehbuchautoren der wohl berühmtesten Science-Fiction-Serie vor Jahrzehnten die Mensch-Maschine-Kommunikation der Zukunft vorstellten. Einfach „Computer“ sagen, den Befehl hinterherschieben und schon passiert es: Das Holodeck startet die gewählte Simulation, der Aufzug fährt zur gewünschten Ebene oder das Raumschiff beschleunigt auf die gewünschte Reisegeschwindigkeit, „Computer, Warp fünf. Energie!“.

Die Zukunft ist Gegenwart


Mittlerweile ist eine solche Sprachsteuerung keine Zukunftsmusik mehr. Wer zu seinem iPhone sagt „Hey Siri, brauche ich heute Nachmittag einen Regenschirm?“ oder zu seinem Smartphone „Okay, Google, navigiere mich zum nächsten Kino“, dem wird von einer charmanten Stimme und Visualisierungen auf dem Display umgehend weitergeholfen. Auch eine Sprachsteuerung von Beleuchtung, Rollladen oder Heizung ist längst möglich. Kurz: Die Art und Weise, wie wir mit Maschinen kommunizieren, hat sich im Laufe der vergangenen Jahre stark verändert. Sie hat, der Digitalisierung sei Dank, zumindest in Teilen ein Niveau erreicht, von dem Science-Fiction-Autoren einst träumten.

Revolutionen der Bedienung


Als die Digitalisierung laufen lernte, gab es monochrome Monitore und Tastaturen. 1984 erschien mit dem Apple Macintosh der erste Computer mit einer Maus als primärem Eingabegerät. Zwar gab es das Konzept der Maussteuerung schon länger, doch Apple machte es als erstes Unternehmen massentauglich – und revolutionierte auf diese Weise die Interaktion mit Computern. Ähnliches gelang Apple im Jahr 2007 im Smartphonebereich. Das iPhone war das erste Mobiltelefon mit einem Multi-Touch-Display und setzte damit einen neuen Bedienstandard. In welchem Maße die „Multi-Touch-Gesten“ uns in Fleisch und Blut übergegangen sind und wie intuitiv sie sind, wird deutlich, wenn Kleinkinder vor Zeitschriften sitzen und versuchen, die Bilder mit Daumen und Zeigefinger zu vergrößern. Neben solch neuen Bedienungsparadigmen sorgen Mikrofone, Kameras, Datenhandschuhe, RFID-Chips und verschiedene Sensoren bei diversen Spezialgeräten für ein völlig neues Miteinander von Mensch und Maschine.

Automatische Mobilität


Ein Bereich der Mensch-Maschine-Interaktion, der uns alle betrifft, ist die Mobilität. Diese stellt eine zentrale Voraussetzung für gesellschaftliche Teilhabe dar. Eine immer stärkere Vernetzung von Fahrzeugen, Infrastruktur und Menschen ermöglicht hier völlig neue Dienstleistungen und Angebote. Car-Sharing, bei dem wir Autos mit dem Smartphoneoder mit Chipkarten zur Nutzung freischalten, ist da nur die Spitze des digitalen Eisbergs. Da 90 Prozent aller Unfälle im Straßenverkehr auf menschliches Versagen zurückzuführen sind, läuft die Entwicklung teilautomatisierter oder gar völlig autonomer Fahrzeuge auf Hochtouren. Schon heute können Assistenzsysteme den Abstand zum vorausfahrenden Fahrzeug überwachen, das Fahrtempo regulieren, die Spur halten und eingreifen, wenn der Fahrer unbeabsichtigt von der Fahrbahn abkommt. Auch selbsteinparkende Autos sind seriengefertigte Realität.

Mein Chauffeur, der Computer


Während die Entscheidungshoheit in teilautomatisierten Fahrzeugen weiterhin beim Menschen liegt, rückt auch die Vision einer gänzlich autonomen Mobilität, in welcher der Mensch ein reiner Fahrgast ist, immer näher an die Schwelle zur Wirklichkeit. So feiert beispielsweise Google beachtliche Erfolge bei der Entwicklung eines solchen autonomen Fahrzeugs. Mittlerweile rollt das selbstfahrende Auto zu Testzwecken sogar schon über kalifornische Straßen. Laut der Dokumentation von Google kam es dabei auf 680.000 Testkilometern lediglich zu 69 Fällen, in denen ein Mensch aktiv eingreifen musste, weil die verbaute Technik eine Verkehrssituation falsch einschätzte. Im Februar dieses Jahres stellte die US-Verkehrssicherheitsbehörde NHTSA zudem fest, dass Computer grundsätzlich als Fahrer anerkannt werden können.

Mein Haus ist schlauer als deins!


Wie stark die Mensch-Maschine-Interaktion auch unser Privatleben verändert, unterstreichen die rasanten Entwicklungen im Smart-Home- Bereich. Während sich die Beleuchtung, das Heizsystem oder die private Sicherheitstechnik längst über Apps und Sprachbefehle steuern lassen, gehen aktuelle Forschungsprojekte noch einen Schritt weiter. So steht mit „Jibo“ ein sozialer Hausroboter in den Startlöchern, der dank Mimik-, Ton- und Spracherkennung authentisch, menschlich und charmant mit der Familie kommuniziert. Jibo sieht nicht aus wie ein Mensch (er hat weder Arme noch Beine), sondern ähnelt eher einer Schreibtischlampe: Eine rotationsfähige Kugel mit Bildschirm sitzt auf einem Zylinder mit Standfuß. Der Bildschirm ist gewissermaßen das Gesicht von Jibo. Per integrierter Kamera erkennt Jibo, mit welchem Familienmitglied er kommuniziert, und passt sein Verhalten entsprechend an. Bei Videotelefonaten folgt die Kamera dem Sprechenden, der sich somit frei bewegen kann und trotzdem im Sichtfeld bleibt. Außerdem liest Jibo Kindern Geschichten vor, erinnert an Termine oder schießt Familienfotos. Der per Crowdfunding finanzierte Hausroboter soll noch dieses Jahr auf den Markt kommen.

Erweiterte Realität


Ein weiteres großes Thema der sich wandelnden Mensch-Maschine-Kommunikation schlägt die Brücke vom Privaten zur Industrie: Augmented Reality, zu Deutsch: erweiterte Realität. Google Glass und Microsoft HoloLens sind zwei prominente Beispiele für bald erscheinende Datenbrillen, die unser Sichtfeld um digitale Projektionen erweitern. Architekten können sich ein 3D-Modell eines geplanten Gebäudes auf einen Tisch projizieren lassen, Ingenieure in die Zylinder und Zahnräder eines neuentwickelten Motors abtauchen, Ärzte ein virtuelles Herz sezieren.

Ich sehe was, was du nicht siehst


Besonders bei Kommissionierarbeiten scheint das Potenzial von Augmented Reality gewaltig. In einem Großteil der weltweiten Warenlager erfolgt die Warenkommissionierung noch immer auf Basis von Papierlisten. Doch jeder papierbasierte Ansatz ist von Natur aus langsam und fehleranfällig. Namhafte Unternehmen wie KNAPP, SAP und Ubimax testen derzeit auf Datenbrillen basierende Systeme, die eine Objekterkennung in Echtzeit, das Lesen von Barcodes sowie eine Indoor-Navigation ermöglichen und sich an das lokale Warehouse Management System anbinden lassen. Mit einem solchen System können sich Lagerarbeiter eine Warenliste und den optimalen Weg durch das Lager direkt in ihr Sichtfeld projizieren lassen. Die zu greifenden Objekte lassen sich optisch hervorheben und ihre Entnahme kann direkt systemseitig gespeichert werden. Feldtests ergaben, dass sich die Fehlerrate auf diese Weise signifikant senken lässt. Auch die Planung einer optimalen Lagerinfrastruktur kann entscheidend von dieser Technik profitieren. Sich versch dene Gestaltungsvarianten in eine noch leere Lagerhalle projizieren lassen und sie live begehen? Mit bereits existierender Technik problemlos möglich, ohne sie dazu bauen zu müssen.

Maschine oder Mensch?


Ist von intelligenten Maschinen, automatisierten Systemen und autonomen Fahrzeugen die Rede, schwingt oft die Frage mit, ob solche Maschinen den Menschen ersetzen werden. Und in einigen Fällen werden sie das wahrscheinlich tatsächlich. Beispielsweise entsteht bei den Greiftechnikspezialisten der Schunk GmbH derzeit eine Roboterhand, die feinfühlig genug ist, um einen Akkubohrer bedienen zu können. Doch sind derartige Beispiele seltener zu finden, als man annehmen möchte. Viele Experten sehen im sich vollziehenden Wandel keine existenzielle Gefährdung der über 180.000 allein in Deutschland angestellten Industriearbeiter.

"Keine menschenleeren Fabriken"


Die meisten von ihnen werden weiterhin Arbeit haben, da sind sich Fachleute aus der Wissenschaft sicher. „Die menschenleere Fabrik ist eine Vision, die es nicht gibt“, stellt Josephine Hofmann in einem Interview mit der Tageszeitung Der Tagesspiegel klar. Hofmann forscht am Fraunhofer-Institut für Arbeitswirtschaft und Organisation unter anderem im Bereich Flexibilisierung der Arbeitswelt. Dienstleister an ihren PCs und in ihren Büros seien schon länger von Veränderungen betroffen, wie sie nun auch Industriearbeitern bevorstehen. Und hier wie da werde sich die Arbeitswelt anpassen – und zwar mit den Menschen: „Es werden Stellen wegfallen, gleichzeitig werden neue entstehen. Es wird auch neue Berufe geben, die wir heute noch nicht kennen“, so die Forscherin.

Maschine und Mensch


Statt sie zu verdrängen, werden Maschinen den Menschen in deutlich mehr Fällen ergänzen, ihn unterstützen. Brancheninsider sehen in MRK-Systemen die nächste Revolution der Robotik. MRK steht für Mensch-Roboter-Kooperation, und in der Tat setzen immer mehr Industriezweige auf ein neues Miteinander von Mensch und Maschine, allen voran die Autoindustrie. So gibt es bei Audi ein MRK-System namens PART4you. Dabei handelt es sich um einen Roboterarm, der den Werkern benötigte Teile und Werkzeuge reicht.

Perspektiven für die Intralogistik


Als Global Player der Branche stellt sich natürlich auch STILL die Frage, wie Mensch und Maschine in der Intralogistik künftig zusammenarbeiten. Es ist ein zentraler Aspekt des 2011 erstmals vorgestellten Konzeptfahrzeugs STILL cubeXX, seines Zeichens ein höchst wandelbares und flexibles Flurförderzeug, das sowohl automatisiert als auch manuell bedient werden und sich in verschiedene Fahrzeugarten transformieren kann. Im automatisierten Betrieb lässt sich das Fahrzeug mit einem iPad steuern. Weil ein solches Tablet aber für den teilweise rauen Lageralltag ein relativ empfindliches Gerät ist, holte sich STILL das Fraunhofer-Institut für Materialfluss und Logistik (IML) als Partner ins Boot. Dort entwickelten die Forscher den Coaster, eine robuste, bierdeckelgroße Bedieneinheit mit fühlbaren Tasten, die einen deutlich wahrnehmbaren Druckpunkt besitzen. So lässt sich der Coaster sogar mit Handschuhen bedienen.

STILL iGoEasy


Um bei STILL eine innovative und neuartige Kommunikation zwischen Mensch und Flurförderzeug zu finden, ist kein Blick in die Zukunft nötig. Das 2011 in den Markt eingeführte STILL iGoEasy-System ist weltweit die erste Automatisierungslösung für einfache und standardisierte Aufträge eines Einzelfahrzeugs, die eine komplette Konfiguration, Steuerung und Überwachung per iPad ermöglicht. Mehr noch: Das System kann selbstständig installiert und zu einem späteren Zeitpunkt an neue Rahmenbedingungen angepasst werden. iGoEasy besteht aus einem mit Automatisierungskomponenten ausgestatteten Hochhubwagen EGV-S, Reflektoren und einem iPad nebst speziellem iGoEasy- System. Die Reflektoren werden entlang der gewünschten Fahrwege installiert und per iPad mit der iGoEasy-App eingelesen. Anschließend können automatische Transporte auf Knopfdruck ausgelöst werden.Front- und Rückkamera übertragen die Sicht auf den Fahrweg in das virtuelle Cockpit der App. Wichtige Daten, wie Akkuladung, Geschwindigkeit und Transportaufträge, werden dort ebenfalls übersichtlich in Info-Grafiken dargestellt.


iGo neo CX 20 läutet neue Ära ein


Noch einen Schritt weiter geht die neueste Produkteinführung von STILL. Auf der Fachmesse LogiMAT in Stuttgart erstmals der Öffentlichkeit präsentiert, hebt STILL die Partnerschaft zwischen Mensch und Maschine mit dem iGo neo CX 20 auf ein bisher nie da gewesenes Niveau. Es ist das erste Kommissionierfahrzeug, das seinen Bediener erkennt und ihm selbstständig durch das Lager folgt. Verringert der Bediener sein Schritttempo, wird auch der iGo neo CX 20 langsamer. Treten andere Menschen vor die digitalen Augen des Fahrzeugs, unterscheidet es diese von seinem Bediener. So ist ausgeschlossen, dass der iGo neo plötzlich der falschen Person folgt. Für den Bediener entfällt dank dieser Autonomie das andauernde Auf- und Absteigen, nur um das Fahrzeug einige Zentimeter vorwärtszubewegen. Auch eine Steuerung per Fernbedienung oder Datenhandschuh ist nicht länger notwendig. Das Fahrzeug denkt mit, es folgt seinem Bediener autonom.

Zukunft mit Potenzial


In einer solchen Partnerschaft scheint sowohl im Privaten als auch im Beruflichen die Zukunft des Zusammenspiels zwischen Mensch und Maschine zu liegen. Ja, die Kommunikation von Mensch und Maschine hat sich verändert und sie wird es weiterhin in rasantem Tempo tun. Und es ist menschlich, auf Veränderungen mit Skepsis zu reagieren. Doch die Indizien sprechen klar dafür, dass die Zukunft von Mensch und Maschine im Miteinander liegt und nicht im Gegeneinander. In einem Miteinander, das faszinierende Möglichkeiten bereithält – egal ob bei der Warenkommissionierung oder dem sprachgesteuerten Eigenheim.

Automatisiert, autonom - Was ist der Unterschied?


Diese Frage hat es in sich. Denn auch wenn die Begrifflichkeiten oft unterschiedlich benutzt werden, gibt es in Bezug auf Fahr- und Flurförderzeuge keine klare Definition. Viele Wirtschaftslexika führen beide Begriffe sogar als Synonyme auf. In der Intralogistikbranche bezeichnet die Automatisierung meist Systeme, in denen es zu einem automatischen Warenfluss kommt, die jedoch relativ starr an bestimmte Rahmenbedingungen gebunden sind. Verändern sich diese, sind mehr oder weniger aufwändige Anpassungen durch den Menschen notwendig. Von Autonomie hingegen ist die Rede, wenn ein Fahrzeug eine Aufgabe automatisch erledigt und autonom, im Sinne von selbstständig, den Weg zum Ziel festlegt - unter Einbeziehung der aktuellen Rahmenbedingungen. Wie der iGo neo CX 20, der ein unerwartetes Hindernis erkennt und umfährt, um seinem Bediener zu folgen.

zurück