IDTechEx erörtert, wie Sensoren in der Robotik des 21. Jahrhunderts für Sicherheit und genaue Steuerung eingesetzt werden
Feb 13, 2023
Mit der zunehmenden Nachfrage nach Automatisierung im 21st Jahrhundert haben Roboter in vielen Branchen wie Logistik, Lagerhaltung, Fertigung und Lebensmittellieferung ein schnelles und beispielloses Wachstum erlebt.
Mensch-Roboter-Interaktion (HRI), präzise Steuerung und sichere Zusammenarbeit zwischen Menschen und Robotern sind die Eckpfeiler der Automatisierung. Sicherheit bezieht sich im Zusammenhang mit Robotern auf mehrere Aufgaben, z. B. Kollisionserkennung, Hindernisvermeidung, Navigation und Lokalisierung, Krafterkennung und Näherungserkennung. All diese Aufgaben werden durch eine Reihe von Sensoren ermöglicht, darunter LiDAR, Bild-/Sichtsensoren (Kameras), taktile Sensoren und Ultraschallsensoren. Mit der Weiterentwicklung der Bildverarbeitungstechnologie gewinnen Kameras in Robotern zunehmend an Bedeutung.
Funktionsprinzip von Sensoren in der Robotik - Vision Sensoren/Kameras
CCD (charge-coupled device) und CMOS (complementary metal oxide semiconductor) sind gängige Arten von Bildsensoren. Ein CMOS-Sensor ist ein digitales Gerät, das die Ladung jedes Pixels in die entsprechende Spannung umwandelt, und der Sensor enthält normalerweise Verstärker, Rauschkorrektur- und Digitalisierungsschaltungen. Im Gegensatz dazu ist ein CCD-Sensor ein analoges Gerät, das eine Reihe von lichtempfindlichen Stellen enthält. Obwohl jedes dieser Geräte seine Stärken hat, werden CMOS-Sensoren mit der Entwicklung der CMOS-Technologie aufgrund ihres geringeren Platzbedarfs, ihrer niedrigeren Kosten und ihres geringeren Stromverbrauchs im Vergleich zu CCD-Sensoren heute allgemein als geeignet für die Bildverarbeitung in Robotern angesehen. Bildverarbeitungssensoren können für die Bewegungs- und Abstandsschätzung, die Identifizierung von Objekten und die Lokalisierung eingesetzt werden. Der Vorteil von Bildverarbeitungssensoren besteht darin, dass sie im Vergleich zu anderen Sensoren wie LiDAR und Ultraschallsensoren wesentlich mehr Informationen mit hoher Auflösung erfassen können.
Das folgende Diagramm vergleicht verschiedene Sensoren anhand von neun Benchmarks. Bildverarbeitungssensoren haben eine hohe Auflösung und niedrige Kosten. Sie sind jedoch von Natur aus anfällig für ungünstige Witterungsbedingungen und Helligkeit. Daher werden oft andere Sensoren benötigt, um die Robustheit des Gesamtsystems zu erhöhen, wenn Roboter in unvorhersehbarem Wetter oder schwierigem Gelände arbeiten. Eine detailliertere Analyse und ein Vergleich dieser Benchmarks sind im neuesten Bericht von IDTechEx, "Sensoren für die Robotik 2023-2043: Technologien, Märkte und Prognosen", enthalten.

Vergleich mehrerer häufig verwendeter Sensoren in Robotern. Quelle: IDTechEx
Wie werden Vision-Sensoren für die Sicherheit in mobilen Robotern eingesetzt?
Die mobile Robotik ist eine der größten Roboteranwendungen, bei der Kameras zur Objektklassifizierung, Sicherheit und Navigation eingesetzt werden. Mobile Roboter beziehen sich in erster Linie auf fahrerlose Transportfahrzeuge (AGVs) und autonome mobile Roboter (AMRs). Die autonome Mobilität spielt jedoch auch bei vielen Robotern eine wichtige Rolle, von Lebensmittellieferrobotern bis hin zu autonomen Landwirtschaftsrobotern (z. B. Mähmaschinen usw.), die auf autonome Mobilität angewiesen sind. Autonome Mobilität ist eine von Natur aus komplizierte Aufgabe, die Hindernisvermeidung und Kollisionserkennung erfordert.
Die Abschätzung der Tiefe ist einer der wichtigsten Schritte bei der Hindernisvermeidung. Diese Aufgabe erfordert ein oder mehrere RGB-Bilder, die von Bildverarbeitungssensoren erfasst werden. Diese Bilder werden verwendet, um eine 3D-Punktwolke mit Bildverarbeitungsalgorithmen zu rekonstruieren und so die Tiefe zwischen dem Hindernis und dem Roboter zu schätzen. Zum gegenwärtigen Zeitpunkt (2023) werden die meisten mobilen Roboter (z. B. FTS, AMR, Lebensmittel-Lieferroboter, Staubsaugerroboter usw.) immer noch in Innenräumen eingesetzt, z. B. in Lagerhäusern, Fabriken, Einkaufszentren und Restaurants, wo die Umgebung gut kontrolliert wird und eine stabile Internetverbindung und Beleuchtung vorhanden ist. Daher können die Kameras ihre beste Leistung erbringen, und die Bildverarbeitungsaufgaben können in der Cloud ausgeführt werden, wodurch die für den Roboter selbst erforderliche Rechenleistung erheblich reduziert wird, was wiederum zu niedrigeren Kosten führt. Bei gitterbasierten FTS werden Kameras beispielsweise nur zur Überwachung des Magnetbands oder QR-Codes auf dem Boden benötigt. Dies ist zwar weit verbreitet und liegt im Trend, eignet sich aber nicht für Roboter, die im Freien laufen oder in Bereichen mit begrenzter WLAN-Abdeckung arbeiten (z. B. unter Baumkronen usw.). Um dieses Problem zu lösen, wird heutzutage die kamerainterne Computer-Vision-Technik eingesetzt. Wie der Name schon sagt, wird die gesamte Bildverarbeitung innerhalb der Kameras durchgeführt. Aufgrund der steigenden Nachfrage nach Robotern für den Außenbereich ist IDTechEx der Ansicht, dass die kamerainterne Bildverarbeitung langfristig immer wichtiger wird, insbesondere für Roboter, die in schwierigem Gelände und rauen Umgebungen arbeiten sollen (z. B. Erkundungsroboter usw.). Kurzfristig glaubt IDTechEx jedoch, dass der Stromverbrauch von Onboard-Computer-Vision zusammen mit den hohen Kosten der Chips die Akzeptanz wahrscheinlich bremsen wird. IDTechEx ist der Meinung, dass viele Roboterhersteller (OEMs) es vorziehen würden, als ersten Schritt andere Sensoren (z. B. Ultraschallsensoren, LiDAR usw.) einzubauen, um die Sicherheit und Robustheit der Umweltwahrnehmungsfähigkeit ihrer Produkte zu verbessern.
Eine detailliertere Analyse des Trends und der Art und Weise, wie verschiedene Sensoren zusammen eingesetzt werden, enthält der neueste Bericht von IDTechEx, "Sensoren für die Robotik 2023-2043: Technologien, Märkte und Prognosen".