Gadgets and Devices

Große Sprachmodelle können Heimrobotern dabei helfen, Fehler ohne menschliche Hilfe zu beheben

Written by smirow

Es gibt unzählige Gründe, warum Heimroboter nach Roomba wenig Erfolg hatten. Preis, Praktikabilität, Formfaktor und Mapping trugen alle zu einem Ausfall nach dem anderen bei. Selbst wenn einige oder alle dieser Probleme gelöst sind, bleibt die Frage, was passiert, wenn ein System einen unvermeidbaren Fehler macht.

Dies war auch auf Branchenebene ein Knackpunkt, aber große Unternehmen verfügen über die Ressourcen, um auftretende Probleme ordnungsgemäß zu lösen. Wir können jedoch nicht erwarten, dass Verbraucher lernen, wie man programmiert oder jemanden anstellt, der ihnen bei jedem Problem helfen kann. Glücklicherweise ist dies ein großartiger Anwendungsfall für LLMs (große Sprachmodelle) in der Robotik, wie neue Forschungsergebnisse des MIT zeigen.

Eine Studie, die im Mai auf der International Conference on Representations of Learning (ICLR) vorgestellt werden soll, behauptet, etwas „gesunden Menschenverstand“ in den Fehlerkorrekturprozess einzubringen.

„Es stellt sich heraus, dass Roboter hervorragende Nachahmer sind“, erklärt die Schule. „Aber wenn Ingenieure sie nicht auch so programmieren, dass sie sich an alle möglichen Stöße und Stöße anpassen, wissen Roboter nicht unbedingt, wie sie mit diesen Situationen umgehen sollen, es sei denn, sie beginnen ihre Aufgabe ganz oben.“

Traditionell schöpfen Roboter bei Problemen ihre vorprogrammierten Optionen aus, bevor ein menschliches Eingreifen erforderlich ist. Dies ist ein besonders wichtiges Thema in einer unstrukturierten Umgebung wie einem Zuhause, wo viele Änderungen des Status quo die Funktionsfähigkeit eines Roboters negativ beeinflussen können.

Die Forscher hinter der Studie stellen fest, dass Nachahmungslernen (das Lernen, eine Aufgabe durch Beobachtung zu erledigen) zwar in der Welt der Heimrobotik beliebt ist, die unzähligen kleinen Umgebungsschwankungen, die den regulären Betrieb beeinträchtigen können, jedoch oft nicht berücksichtigen kann und daher ein System erfordert. von vorne beginnen. Die neue Forschung geht dieses Problem teilweise an, indem sie die Demonstrationen in kleinere Teilmengen aufteilt, anstatt sie als Teil einer kontinuierlichen Aktion zu behandeln.

Hier kommen wiederum LLMs ins Spiel, die es dem Programmierer ersparen, die zahlreichen Unteraktionen individuell zu beschriften und zuzuordnen.

„LLMs haben die Möglichkeit, Ihnen in natürlicher Sprache zu sagen, wie jeder Schritt einer Aufgabe zu erledigen ist. Die kontinuierliche Demonstration eines Menschen ist die Verkörperung dieser Schritte im physischen Raum“, erklärt der Doktorand Tsun-Hsuan Wang. „Und wir wollten beides verbinden, damit ein Roboter automatisch weiß, in welchem ​​Stadium er sich bei einer Aufgabe befindet, und in der Lage ist, selbstständig einen neuen Termin zu planen und wiederherzustellen.“

Die in der Studie gezeigte besondere Demonstration besteht darin, einem Roboter beizubringen, Murmeln aufzuheben und in eine leere Schüssel zu gießen. Für Menschen ist es eine einfache, wiederholbare Aufgabe, für Roboter jedoch eine Kombination verschiedener kleiner Aufgaben. LLMs sind in der Lage, diese Teilaufgaben aufzulisten und zu kennzeichnen. Während der Demonstrationen sabotierten die Forscher die Aktivität auf kleine Weise, indem sie den Roboter beispielsweise dazu brachten, vom Kurs abzukommen und Murmeln von seinem Löffel fallen zu lassen. Das System reagierte, indem es kleine Aufgaben automatisch korrigierte, anstatt bei Null anzufangen.

„Wenn der Roboter mit unserer Methode Fehler macht, müssen wir Menschen nicht bitten, zu programmieren oder zusätzliche Demonstrationen durchzuführen, wie man sich nach einem Fehler erholt“, fügt Wang hinzu.

Dies ist eine wirksame Methode, um einen völligen Kontrollverlust zu vermeiden.

About the author

smirow

Leave a Comment