🤖 Figure Robotics Sicherheitschef GEFEUERT (Klage)
Kanal: Matthew Berman
Dauer: 19:31 | Aufrufe: 178 | Likes: 14
Veröffentlicht: 26. November 2025
Original Video: Auf YouTube ansehen
Einführung in die Klage
Wir haben eine neue Klage zu besprechen, und sie betrifft Figure Robotics, eines der amerikanischen Robotik-Unternehmen, das an der Spitze des Baus von Robotern steht, die letztendlich in Fabriken und in unseren Haushalten landen werden. Dies ist eine Sicherheits- und Whistleblower-Vergeltungsklage.
Die Klage behauptet, dass der Whistleblower, der Leiter der Sicherheitsabteilung bei Figure Robotics, Sicherheitsbedenken an Figures CEO Brett Adcock eskaliert hat. Und diese wurden nicht nur ignoriert, sondern er wurde für die Eskalation dieser Bedenken gefeuert.
Natürlich gibt es immer zwei Seiten einer Geschichte, aber dies ist interessant, weil wir bald überall Roboter haben werden.
Die Parteien
Dies ist eine Klage zwischen Robert Grundell, einer Einzelperson, und Figure AI, einer Delaware-Gesellschaft. Figure AI ist bekannt für ihre Figure-Roboter: Figure O2, Figure 03. Es sind wunderschöne Roboter an der Spitze der humanoiden Roboter-Revolution, die sich direkt vor unseren Augen abspielt.
Diese Klage ist wegen unrechtmäßiger Kündigung. Diese Whistleblower-Vergeltungsklage entspringt der rechtswidrigen Kündigung eines Roboter-Sicherheitsingenieurs, dessen Sicherheitswarnungen ein Hindernis für Figure AI darstellten.
Wer ist Robert Grundell?
Er ist ein hochqualifizierter Roboter-Sicherheitsingenieur. Er wurde vor etwas mehr als einem Jahr von Figure rekrutiert, um deren Produktsicherheitsprogramm zu leiten. Er war der Leiter der Produktsicherheit bei Figure Robots.
Robert Grundell hat über zwei Jahrzehnte Erfahrung in Robotik, Mensch-Roboter-Interaktion und Compliance mit nationalen und internationalen Sicherheitsstandards.
Robert begann seine Beschäftigung am 7. Oktober 2024 und wurde als Principal Robotic Safety Engineer eingestellt und berichtete direkt an den CEO Brett Adcock. Er war beauftragt, Figures globale Sicherheitsstrategie zu entwickeln und durchzusetzen.
Fehlende Sicherheitsverfahren
Während seiner ersten Arbeitswoche und während er vor Ort in Kalifornien arbeitete, beobachtete der Kläger, dass Figure keine formellen Sicherheitsverfahren, Vorfallmeldesysteme oder Risikobewertungsprozesse für die in Entwicklung befindlichen Roboter hatte.
Das ist sowohl überraschend als auch nicht überraschend für ein Startup, das sich unglaublich schnell bewegt. Diese Dinge werden aufgebaut, während das Unternehmen aufgebaut wird. Aber wir sprechen hier nicht über Software. Wir sprechen über einen humanoiden Roboter, etwas das echte physische Konsequenzen in der realen Welt hat, wenn etwas schiefgeht.
Figure hatte auch kein dediziertes Personal für Mitarbeitergesundheit und -sicherheit.
Figures Kernwerte
Die selbsterklärten Kernwerte von Figure sind: "Schnell bewegen und technisch furchtlos sein", was mich sehr an Facebooks frühe Tage von "Move fast and break things" erinnert – aber offensichtlich kann man bei humanoiden Robotern nichts kaputt machen.
Der Kläger entwickelte eine Sicherheits-Roadmap, die von Brett Adcock und Edelberg genehmigt wurde. Allerdings drückten Adcock und Edelberg eine Abneigung gegen schriftliche Produktanforderungen aus, worauf der Kläger antwortete, dass ihre Haltung im Bereich der Maschinensicherheit abnormal und für ihn als Leiter der Produktsicherheit besorgniserregend sei.
Die Helix AI und ihre Risiken
Diese Figure-Roboter sind unglaublich leistungsstarke Maschinen, aber sie werden von der Intelligenz einer KI angetrieben. Konkret haben sie ihre eigene KI namens Helix AI entwickelt, die diese humanoiden Roboter antreibt.
Aber wie wir alle wissen, ist KI nicht-deterministisch. Sie kann Fehler machen. Und tatsächlich wird sie Fehler machen. Laut der Klage hat KI viele Risiken, die traditionelle Maschinensteuerung nicht hat, einschließlich Halluzinationen, unerklärlicher Entscheidungen, Selbsterhaltung und offensichtlichem Bewusstsein.
Roboter im Haushalt
Im Januar 2025 fragte Adcock den Kläger, was es brauchen würde, um Figure-Roboter in Haushalte zu bringen. Robert erstellte daraufhin eine Sicherheits-Roadmap für die Platzierung von Robotern im Haushalt. Adcock lehnte es ab, an der Präsentation teilzunehmen.
Der Kläger schickte Adcock eine komprimierte Version der Anforderungen zur Überprüfung. Adcock antwortete nie.
Der Kläger erkannte, dass das Errichten von abgesperrten Bereichen in einem Haus, um sicherzustellen, dass die Roboter ihre Umgebung nicht gefährden, unpraktisch wäre. In Fabriken gibt es Bereiche, in denen Roboter arbeiten dürfen und Menschen nicht erlaubt sind. Aber natürlich funktioniert das im Haushalt nicht.
Der kritische Impact-Test
Am 28. Juli 2025 wurden Impact-Tests des FO2 durchgeführt, und der leitende Ingenieur programmierte den Roboter, um mit seiner stärksten Kapazität zu schlagen.
Während des Impact-Tests bewegte sich FO2 mit übermenschlicher Geschwindigkeit und das Aufprallmessgerät maß Kräfte, die 20-mal höher waren als die Schmerzschwelle. Diese Schmerzschwellen sind in ISO 15066 definiert, einer technischen Spezifikation, die Sicherheitsanforderungen für kollaborative industrielle Robotersysteme bereitstellt.
Der Kläger schätzte, dass die vom FO2 erzeugte Kraft ungefähr mehr als das Doppelte der Kraft war, die notwendig ist, um einen erwachsenen menschlichen Schädel zu brechen.
Der Kühlschrank-Vorfall
Es gab eine Instanz, bei der ein Mitarbeiter neben einem FO2 stand und der FO2 eine Fehlfunktion hatte und den Kühlschrank schlug, wobei er den Mitarbeiter nur knapp verfehlte. Der Roboter hinterließ eine 6mm tiefe Kerbe in der Edelstahltür des Kühlschranks.
Stellen Sie sich vor, das zu sehen. Es wäre definitiv beängstigend. Diese Roboter sind unglaublich leistungsstark.
Das ESTOP-Problem
Sie begannen über einen ESTOP-Mechanismus (Emergency Stop) zu sprechen – im Wesentlichen ein Knopf, den man drücken kann, um den Roboter sofort zu stoppen.
Am oder um den 11. August 2025 wurde dem Kläger mitgeteilt, dass Edelberg ein Projekt zur Zertifizierung einer ESTOP-Funktion beendete. Investoren waren auf den ESTOP verkauft worden.
Die Sicherheitsfunktion, der ESTOP des FO2, wurde ohne sein Wissen entfernt, weil der leitende Ingenieur das ästhetische Erscheinungsbild der Sicherheitsfunktion nicht mochte. Sie dachten im Grunde, es sieht hässlich aus.
Die Eskalation
Am 29. Juli 2025 kontaktierte der Vizepräsident für Wachstum, Lee Randio, den Kläger und ließ ihn wissen, dass er eine Gehaltserhöhung von 10.000 Dollar oder eine 5,2%-ige Erhöhung nach weniger als einem Jahr Arbeit erhalten hatte.
Nachdem er den Impact-Test gesehen hatte, schickte der Kläger eine Slack-Nachricht an Brett Adcock, um ihn darüber zu informieren, dass der Roboter in der Lage war, Menschen schwere dauerhafte Verletzungen zuzufügen. Die Nachricht des Klägers wurde ignoriert.
Adcock hatte sich langsam aus Sicherheitsdiskussionen zurückgezogen, indem er ihre wöchentlichen Meetings auf zweiwöchentlich, dann monatlich, dann vierteljährlich reduzierte und schließlich aufhörte, auf viele Nachrichten des Klägers zu antworten.
Die Kündigung
Am 2. September 2025, nur vier Tage nachdem er das hohe Risiko des Roboters für Mitarbeiter während eines Sicherheitstrainings betont hatte und nur Wochen nach seiner detailliertesten schriftlichen Beschwerde über Zertifizierungsstornierungen, wurde der Kläger zu einem Überraschungsmeeting mit Randashio gerufen.
Ihm wurde mitgeteilt, dass seine Beschäftigung sofort beendet wurde, aufgrund einer Änderung der Geschäftsrichtung in Bezug auf Figures Fokussierung auf den Heimmarkt.
Fazit und Perspektive
Der Kläger glaubt, dass er unrechtmäßig gekündigt wurde, weil er weiterhin Sicherheitsbedenken eskalierte und sie es nicht mehr hören wollten.
Wir befinden uns auf dieser unvermeidlichen Trajektorie, humanoide Roboter ins Haus zu bekommen. Und ich bin dafür. Ich möchte wirklich sehen, dass es passiert. Aber natürlich gibt es Sicherheitsbedenken. Diese Roboter sind keine Spielzeuge. Sie sind keine autonomen Staubsauger. Das sind sehr große, sehr leistungsstarke Roboter, die wirklich jemanden verletzen können, wenn etwas schiefgeht.
Aber ich vergleiche das mit anderen Werkzeugen, die wir in unserem Haus finden. Wenn Sie ein Auto fahren, wenn Sie einen Hammer benutzen, wenn Sie eine Tischsäge benutzen, wenn Sie einen Mixer benutzen – all diese Dinge haben Risiken. Es ist eine Risiko-Ertrags-Kalkulation wie bei allem anderen.
Wir werden sehen, was letztendlich mit dieser Klage passiert.