banner

Nachricht

Jun 13, 2023

HAND-Daten

Scientific Data Band 10, Artikelnummer: 405 (2023) Diesen Artikel zitieren

533 Zugriffe

Details zu den Metriken

HANDdata ist ein Datensatz zur Bereitstellung von Handkinematik- und Annäherungssichtdaten während der Greifaktion nicht-virtueller Objekte, speziell zugeschnitten auf das autonome Greifen einer Roboterhand und mit besonderem Augenmerk auf die Greifphase. Daher versuchten wir, Zielobjekteigenschaften von Radar- und Flugzeit-Näherungssensoren sowie Details der Reichweite-zu-Greifen-Aktion zu erfassen, indem wir die Handgelenk- und Fingerkinematik sowie die Hauptereignisse der Hand-Objekt-Interaktion betrachteten. Wir haben die Datenerhebung als eine Abfolge statischer und verständlicher Aufgaben strukturiert, die nach zunehmender Komplexität geordnet sind. HANDdata ist ein greifbarer First-Person-Datensatz, der fast 6000 Mensch-Objekt-Interaktionen von 29 gesunden Erwachsenen mit 10 standardisierten Objekten in 5 verschiedenen Formen und 2 Arten von Materialien umfasst. Wir glauben, dass eine solche Datenerfassung für Forscher von Nutzen sein kann, die an autonomen Greifrobotern für Anwendungen im Gesundheitswesen und in der Industrie interessiert sind, sowie für diejenigen, die sich für Radar-basiertes Computersehen und grundlegende Aspekte der sensomotorischen Steuerung und Manipulation interessieren.

Die menschliche Hand ist ein unglaublich komplexes System mit einem riesigen Spektrum an Funktionen. Sie ist in unserem Leben und in unserer täglichen Interaktion mit umgebenden Objekten und Menschen von wesentlicher Bedeutung. Forscher haben sich schon lange darum bemüht, diese Komplexität zu verstehen und nachzubilden. Diese Herausforderung berührt verschiedene Zweige und Bereiche des menschlichen Wissens, zum Beispiel Anatomie und Biologie, Neurowissenschaften, aber auch Kunst und Ingenieurwesen, für Robotik, Automatisierung, Gliedmaßenprothesen usw. Diese Aufmerksamkeit wird durch die große Zahl der in der Literatur zu diesem Thema verfügbaren Artikel deutlich (mehr als eine halbe Million Treffer für Dokumente bei einer „menschlichen“ Suche auf Scopus!). Darüber hinaus wird dies auch durch die große Anzahl verwandter Datensammlungen (oder Datensätze) belegt, die von Forschern im Laufe der Jahre frei veröffentlicht wurden. Jeder dieser Datensätze liefert Daten von verschiedenen Sensoren, die versuchen, die Aufmerksamkeit auf einen bestimmten Aspekt der menschlichen Hand zu lenken, meist auf eine bestimmte Reihe von Aktionen, und letztendlich versuchen, eine andere Perspektive eines solch komplexen Systems hervorzuheben. Beispielsweise konzentrierten sich zahlreiche Datensätze auf die Erkennung von Handhaltungen und -griffen, indem sie verschiedene Daten wie RGB- und Tiefenkameras, elektromyografische Sensoren und Bewegungsverfolgungssysteme1,2,3,4,5,6,7 auch für uneingeschränkte Personen bereitstellten Objektmanipulationen8. In ähnlicher Weise konzentrierten sich in der Robotiktechnik zahlreiche Datensätze auf die Greifautomatisierung von Robotern, Roboterlernen, Mensch-Roboter-Interaktionen und sogar auf Möglichkeiten zur Synthese eines Greifdatensatzes9,10,11,12.

Leider konzentrierten sich nur wenige Datensätze speziell auf die Greifaktion13,14,15,16, eine der wichtigsten und am häufigsten vorkommenden Aktionen im täglichen Leben, und noch weniger Datensätze konzentrierten sich auf das automatische Greifen während der Greifaktion mittels Computer Vision6. Leider bietet keiner der derzeit verfügbaren Datensätze umfangreiche Handkinematik- und Nahsichtdaten während der Reichweite, um Aktionen realer (dh nicht virtueller) Objekte zu erfassen.

Mit dieser Arbeit wollten wir einen Datensatz liefern, der speziell auf die Untersuchung des autonomen Greifens einer Roboterhand zugeschnitten ist, mit besonderem Augenmerk auf die Greifphase des Greifens. Im Detail strebten wir eine Datenerfassung an, die die Erforschung neuartiger autonomer Greifansätze basierend auf der Schätzung der Bewegungsbahnen von Arm, Hand und Fingern sowie der Erkennung von Objekteigenschaften vor und nach Beginn der Greifbewegung (d. h. statische und dynamische Phasen) ermöglichen würde , jeweils). Für eine solche Untersuchung haben wir eine Reihe von Radar- und Flugzeit-Näherungssensoren ausgewählt, Sensoren, die immer häufiger in auf Computer Vision basierenden Technologien eingesetzt werden17 und ein großes Potenzial für eine tatsächliche klinische Anwendung haben, sowohl hinsichtlich der Leistung als auch des Rechenbedarfs . Darüber hinaus wurde die grundlegende Unterarm- und Handkinematik als wesentlich erachtet, um eine Referenzgrundlage für jede autonome Greifroutine zu liefern.

Wir präsentieren hier HANDdata18 und teilen es offen mit der Community, nach unserem besten Wissen den einzigen Datensatz, der Folgendes bietet:

ein First-Person-Fokus auf die Greifwirkung einer Reihe realer und standardisierter Objekte,

Daten, die sowohl statische (d. h. vorab erreichende) als auch erfassende Szenarien umfassen, geordnet nach zunehmender Komplexität,

Daten zu Zielobjekteigenschaften, gemessen über Radar und Flugzeit-Näherungssensoren am Handgelenk der Teilnehmer,

Daten zur Handgelenk- und Unterarmkinematik, gemessen über Trägheitssensoren am Handgelenk der Teilnehmer,

Finger- und Handkinematikdaten, gemessen über Dehnungssensoren an der Hand der Teilnehmer,

Ereignisbezogene Daten zur Hand-Objekt-Interaktion (z. B. Berühren, Abheben, Ersetzen und Loslassen), gemessen über Wägezellen, die sich unter den Manipulationsbereichen befinden.

Als Ergebnis umfasst der HANDdata-Datensatz fast 6000 Mensch-Objekt-Interaktionen von 29 gesunden Erwachsenen mit 10 standardisierten Objekten in 5 verschiedenen Formen und 2 Arten von Materialien. Diese große Datenmenge lenkt die Aufmerksamkeit auf die gemeinsame Aktion des Erreichens und Ergreifens eines Objekts. Wir versuchten, Zielobjekteigenschaften von Radar- und Flugzeit-Näherungssensoren sowie Details der Reichweite-zu-Greifen-Aktion zu erfassen, indem wir die Handgelenk- und Fingerkinematik sowie die Hauptereignisse der Hand-Objekt-Interaktion untersuchten. Wir haben die Datenerfassung als eine Abfolge von Aufgaben strukturiert und dabei von den idealsten statischen Szenarios zu dynamischeren Szenarios übergegangen. Diese Aufgaben wurden mit einer Sammlung verschiedener Objekte und Materialien durchgeführt, die im Rahmen eines im Bereich der Prothetik weitgehend bekannten Funktionstests standardisiert wurden und Daten für einen begrenzten, aber äußerst funktionsrelevanten Satz von Griffmustern liefern sollten. Wir glauben, dass eine solche Datenerfassung die Entwicklung von Modellen und Kartierungen für autonome Greifroboter unterstützen kann, die in uneingeschränkten Umgebungen interagieren. HANDdata kann beispielsweise für Forscher von Wert sein, die autonomes Greifen aus der ersten Person für das Gesundheitswesen und die Körperpflege erforschen, beispielsweise für Hilfs- und/oder Rehabilitationsroboter (z. B. Handprothesen und Operationsroboter19,20,21) sowie für soziale und industrielle Zwecke Roboter (z. B. mobile Bedienstete und kollaborative Lagerroboter22,23,24). Darüber hinaus können die hier präsentierten Daten für Forscher von Wert sein, die sich für Radar-basierte Computer-Vision-Ansätze zur Erkennung von Objekten interessieren, und auch für diejenigen, die sich für grundlegende Aspekte der sensomotorischen Steuerung und Manipulation interessieren.

Freiwillige Teilnehmer wurden gebeten, für die Dauer des Datenerfassungsexperiments einen instrumentierten Handschuh zu tragen. Der instrumentierte Handschuh basierte auf einem CyberGlove II (CyberGlove Systems, USA), zu dem Näherungs- und Trägheitssensoren über eine 40 x 25 mm große kundenspezifische Leiterplatte hinzugefügt wurden, die an einem anpassbaren Armband montiert war (Abb. 1).

Instrumentierter Handschuh. Der für das Datenerfassungsexperiment verwendete instrumentierte Handschuh basierte auf einem CyberGlove, zu dem Näherungs- und Trägheitssensoren über eine benutzerdefinierte Leiterplatte hinzugefügt wurden, die an einem anpassbaren Armband montiert war (links). Seiten- und Vorderansicht der 40 x 25 mm großen kundenspezifischen Leiterplatte, die die Ausrichtung der Trägheitssensorachsen sowie die Position, Ausrichtung und dreieckige Näherung des Sichtfelds der Näherungssensoren zeigt und das Konzept der gleichmäßig verteilten Entfernungspunkte des Radars veranschaulicht, die einen Sweep bilden (rechts).

Der CyberGlove war rechtsseitig und verfügte über 18 Dehnungsmessstreifen und Datenerfassungselektronik, die es ermöglichten, die Winkel der Fingergelenke mit einer Auflösung von weniger als einem Grad und einer Frequenz von 90 Hz zu verfolgen. Zu den Näherungssensoren gehörten ein gepulstes kohärentes Radar (A121, Acconeer, Schweden) und ein Flugzeitsensor (VL53L5CX, STmicroelectronics, Frankreich-Italien). Das A121-Radar war so eingestellt, dass es Folgen von 60-GHz-Impulsen mit bekannter Startphase in abwechselnden Puls-/Stillzyklen mit 13 MHz aussendete. Da das Radar die Geschwindigkeit der ausgesendeten Impulse kannte, versuchte es dann, Reflexionen in bestimmten diskreten Entfernungen zu rekonstruieren, indem es die Zeit analysierte, die zum Empfang der Echos benötigt wurde. In der in dieser Studie verwendeten Konfiguration empfing das Radar Impulse zu Zeiten, die sich auf die Entfernungen von 35 Entfernungspunkten bezogen, die gleichmäßig von 6 cm bis 41 cm verteilt waren (dh jeder Entfernungspunkt ist 1 cm voneinander entfernt). Anschließend wurde eine vollständige Ablesung aller Entfernungspunkte, auch Sweep genannt, 40 Mal mit einer Frequenz von 800 Hz wiederholt. Schließlich wurden diese 40 Sweeps in Bildern gesammelt und mit einer Rate von 15 Bildern pro Sekunde erfasst. Das Sichtfeld des Radars deckte einen 3D-Bereich von etwa 65 × 53 Grad bei 50 % der Strahlleistung ab. Der Flugzeitsensor VL53L5CX versuchte, die Entfernung des Ziels abzuschätzen, indem er den interessierenden Bereich mit 940-nm-Photonen (dh unsichtbarem Licht) beleuchtete. Es wurde auf 15 Bilder pro Sekunde in einer 8 × 8-Auflösung (also 64 Pixel) eingestellt. Sein Sichtfeld deckte einen 3D-Bereich von etwa 45 × 45 Grad bei 75 % der Strahlleistung ab. Der Trägheitssensor umfasste einen eingebauten Beschleunigungsmesser und ein Gyroskop des BMI160 (Bosch, Deutschland) und war auf 120 Proben pro Sekunde eingestellt.

Alle Daten wurden über eine kabelgebundene USB-Verbindung über eine ESP32-Host-MCU (EspressIf, China) erfasst, die direkt mit der kundenspezifischen Leiterplatte der Sensoren verbunden war. Die maßgeschneiderte Platine wurde dann an einem Armband befestigt, das aus einer elastischen Bandage, einem Klettband und einem 3D-gedruckten Scharnier bestand, was eine individuelle Anpassung der Platinenausrichtung (d. h. Sichtfeld des Näherungssensors) ermöglichte. Der Gelenkwinkel wurde während des gesamten Experiments bei 90° zur Unterarmachse gehalten.

Für dieses Experiment wurden zehn verschiedene Objekte verwendet (Abb. 2). Es wurden verschiedene Formen und Materialien ausgewählt, um die Formerkennung über verschiedene Permittivitätskonstanten hinweg untersuchen zu können. Die Testobjekte wurden ausgewählt, um einen begrenzten, aber funktionell äußerst relevanten Satz von Griffmustern auszulösen. Hierzu wurden die Objekte direkt dem Southampton Hand Assessment Procedure25 (SHAP) entnommen, einer im Bereich der Prothetik etablierten klinisch validierten Funktionsbewertung. Ähnlich wie beim SHAP-Protokoll sollte hier jedes Objekt ein bestimmtes Griffmuster auslösen und bewerten. Konkret sollten abstrakte Objekte wie eine Kugel, ein Zylinder, ein dreieckiges Prisma, ein Quader mit einem dünnen rechteckigen Prisma-„Griff“ und ein dünnes rechteckiges Prisma jeweils das sphärische, kraftvolle, dreistellige, seitliche und Pinch-Griffmuster auslösen . Jedes Objekt war in zwei Materialien erhältlich, Holz oder Aluminium. Die Abmessungen, Materialien und Gewichte von Objekten sind im SHAP-Protokoll standardisiert.

Testobjekte. Abstrakte Objekte wie eine Kugel, ein Zylinder, ein dreieckiges Prisma, ein Quader mit einem dünnen rechteckigen Prisma-„Griff“ und ein dünnes rechteckiges Prisma sollten jeweils das sphärische, kraftvolle, dreistellige, seitliche und Pinch-Griffmuster auslösen.

Alle Objekte wurden über eine oder zwei instrumentierte Plattformen (Abb. 3) manipuliert, die jeweils 9 cm vom Auflagetisch entfernt waren und eine Landefläche von 60 cm2 hatten. Beim Einsatz von zwei Plattformen waren deren Landeflächen um 40 cm voneinander entfernt. Jede Plattform war mit einer auf Dehnungsmessstreifen basierenden Wägezelle ausgestattet, um den Zeitpunkt des ersten Kontakts mit dem Objekt sowie das Abheben und Zurücksetzen von/auf die Plattformen zu verfolgen. Die Wägezellen hatten eine Gewichtsbeschränkung von 1 kg und wurden von der integrierten Schaltung HX711 (Avia Semiconductor, China) mit einer ESP32s2-Host-MCU (EspressIf, China) erworben. Die Daten wurden mit 80 Hz gestreamt und über eine kabelgebundene USB-Verbindung erfasst.

Instrumentierte Plattformen. Alle Objekte wurden über eine oder zwei Plattformen manipuliert, die jeweils mit einer Wägezelle ausgestattet waren. Die Wägezellen ermöglichen die Verfolgung der wichtigsten Ereignisse einer Aktion wie Berühren, Abheben, Ersetzen und Loslassen.

Darüber hinaus wurden zwei Bodenmarkierungen verwendet, um die Positionierung der Teilnehmer in Bezug auf die instrumentierten Plattformen zu leiten. Konkret würde jede Bodenmarkierung eine andere Standposition und damit eine andere Positionierung des Sichtfelds der Näherungssensoren bestimmen. Markierung Nr. 1 sollte das Sichtfeld der Näherungssensoren auf die linke Plattform ausrichten, um so das Zielobjekt innerhalb des Sichtfelds an der Startposition zu haben. Markierung Nr. 2 sollte das Sichtfeld der Näherungssensoren auf die Mitte der beiden Plattformen ausrichten (in Abb. 3 durch eine blaue Linie gekennzeichnet), sodass sich das Zielobjekt an der Startposition nicht unbedingt im Sichtfeld befindet. Die Noten wurden empirisch über wenige repräsentative Teilnehmer ermittelt.

Die Daten aller Geräteteile wurden über mehrere USB-Verbindungen zu einem einzigen USB 3.1 HUB und einem tragbaren Computer (HP Elitebook 840) erfasst. Die Erfassung wurde über eine in Matlab geschriebene kundenspezifische Software (R2022a, Mathworks, USA) koordiniert. Die Software enthielt eine grafische Oberfläche zur Beschriftung der Versuche, um den Experimentatoren die Arbeit zu erleichtern. Um die zeitliche Konsistenz zu verbessern, wurden die Daten in großen Mengen erfasst (d. h. mehr als eine Probe pro Mal). Den eingehenden Datenmengen wurden automatisch Zeitstempel hinzugefügt, aus denen dann die einzelnen Sensorzeitstempel interpoliert wurden. Die erfassten Daten bestanden aus Näherungs-, Trägheits- und Fingergelenkwinkelmessungen des instrumentierten Handschuhs sowie Lastkraftmessungen der instrumentierten Plattform.

Die Daten wurden von 29 erwachsenen Freiwilligen (5 weiblich) im Alter von 27,4 ± 2,95 Jahren und einer Größe von 171,85 ± 8,26 cm, gesund und ohne vorherige neuromuskuläre Störung, erhoben. Zwei von 29 Freiwilligen hatten die dominante Hand verlassen. Vor jeder Datenerfassung wurden die Teilnehmer mit dem instrumentierten Handschuh vorbereitet: Der Handschuh wurde an der rechten Hand getragen (Abb. 1), wobei das Handgelenkband und die Drähte sorgfältig positioniert wurden, um Bewegungseinschränkungen zu vermeiden. Die Teilnehmer standen vor einem Unterstützungstisch, an dem sich eine instrumentierte Plattform befand (Abb. 3). Die Tischhöhe betrug 70 cm und wurde bei allen Teilnehmern konstant gehalten, mit dem Ziel, die Datenvariabilität zwischen den Probanden in Bezug auf den Greifwinkel und die Flugbahn zu fördern. Vor Beginn des Experiments wurde für jeden Teilnehmer eine kurze Datenaufzeichnung erstellt, um Kalibrierungsreferenzdaten für alle Sensoren bereitzustellen. Speziell für den CyberGlove wurden die Teilnehmer gebeten, nacheinander mehrere Handbewegungen wie Ausruhen, Hand öffnen, Hand schließen und alle Finger beugen auszuführen. Anschließend bestand das Experiment aus vier verschiedenen Phasen, die Szenarien mit zunehmender Komplexität darstellten, nämlich stationär, benutzerstatisch, Pick-and-Lift und Pick-Lift-and-Move (Abb. 5). Das gesamte Experiment dauerte pro Teilnehmer etwa 30 Minuten, davon entfielen etwa 15 Minuten auf die Vorbereitung des Aufbaus.

Mit dem Ziel, die Fähigkeiten von Näherungssensoren zur Objekterkennung unter idealen Bedingungen vorab zu bewerten, wurde eine Phase der Datenaufzeichnung auf dem Labortisch durchgeführt, nämlich ein statisches Laborszenario (Abb. 5). Dabei wurden die Sensoren in einer festen Höhe nach unten gerichtet auf einem Auflagetisch platziert, auf dem alle Objekte nacheinander platziert wurden. Ein horizontaler Stützarm hielt die Sensoren auf einer festen Höhe von 21 cm und war sorgfältig positioniert, um eine Beeinträchtigung der Annäherungsdatenaufzeichnung zu vermeiden. Die Daten von jedem Objekt wurden etwa 12 Sekunden lang, aufgeteilt in 6 Versuche, erfasst. In Anlehnung an ähnliche Arbeiten26 wurde die Ausrichtung der Objekte zwischen den Versuchen geändert (siehe ergänzendes Material zum Protokoll). Es wurden unterschiedliche Ausrichtungen als notwendig erachtet, um unterschiedliche Querschnitte desselben Objekts zu erfassen, die unterschiedliche Formen, Dicken und Dichten offenbaren können. Ein anschauliches Beispiel der von den Näherungssensoren erfassten Daten ist in Abb. 4 dargestellt.

Daten von Näherungssensoren. Visualisierung der von den Radar- und Flugzeitsensoren erfassten Daten bei konstanter Blickrichtung auf die verschiedenen Zielobjekte. Zur Veranschaulichung zeigen wir (1) die normierte Amplitude der Radarmesswerte für die 35 Entfernungspunkte, also die Verteilung der Reflexionsentfernungen im verfügbaren Entfernungsbereich (von links nach rechts, 6 cm bis 41 cm), und ( 2) die normalisierten Entfernungswerte des Flugzeitsensors, auf 35 x 35 Pixel verkleinert und als Pseudofarbbilder („Viridis“-Farbkartierung) dargestellt.

Benutzerstatisch stellt das einfachste Benutzerszenario dar, d. h. eine statische Situation, in der der Benutzer vor dem Objekt steht und die Näherungssensoren stetig auf das Ziel gerichtet sind, das sich auf einer instrumentierten Plattform (Abb. 5), insbesondere der linken, befindet. Die Teilnehmer wurden gebeten, vor dem Stütztisch zu stehen, wobei die Füße an der Markierung Nr. 1 auf dem Boden ausgerichtet waren und der Arm in Ruheposition gehalten wurde. Die Ruheposition wurde für die gesamte Dauer des Experiments so definiert, dass der Oberarm am Körperrumpf anliegt, das Ellenbogengelenk um 90 Grad gebeugt ist und die Handfläche nach links und senkrecht zum Boden zeigt (siehe Abb. 5). Die Teilnehmer wurden gebeten, die Hand (dh die Näherungssensoren) ruhig zu halten und auf das etwa 20 cm entfernte Zielobjekt zu richten. Für jedes der zehn Objekte wurden etwa 5 Sekunden Daten aufgezeichnet.

Datenerfassungsprotokoll. Die Datenerfassung bestand aus vier verschiedenen Phasen, die Szenarien mit zunehmender Komplexität darstellten: statisch am Tisch, statisch vom Benutzer, Pick-and-Lift und Pick-Lift-and-Move. In den statischen Szenarien waren die Sensoren fest auf die Zielobjekte gerichtet, während der Benutzer in den Greifszenarien mit dem Objekt interagierte. Der in dieser Abbildung dargestellte Teilnehmer hat der Verwendung des Bildes zugestimmt.

Das Pick-and-Lift-Szenario stellt eine dynamische Situation dar, in der der Benutzer das Zielobjekt aufnimmt und anhebt. Dabei bewegen sich die Näherungssensoren auf das Objekt zu, das sich immer auf einer instrumentierten Plattform befindet (Abb. 5), insbesondere auf der linken. Die Teilnehmer wurden gebeten, genau wie in der statischen Phase vor dem Stütztisch zu stehen, wobei die Füße an der Markierung Nr. 1 auf dem Boden ausgerichtet waren und der Arm in Ruheposition gehalten wurde. Anschließend wurden die Teilnehmer für die Aufzeichnung gebeten, wiederholt eine einfache Aufgabe zum Erreichen, Greifen, Heben und Ersetzen des Zielobjekts durchzuführen. Konkret bestand die Aufgabe darin, (1) das Objekt zu erreichen, (2) das Objekt mit seinem vordefinierten Griff zu greifen, (3) es etwa 10 cm in die Luft zu heben, (4) es auf der Startfläche neu zu positionieren und schließlich ( 5) Rückkehr in die Ruheposition wie zuvor definiert. Aufgabenwiederholungen wurden in 10 Blöcken zu je 10 Versuchen organisiert, unterschieden nach der Objektform (z. B. Kugel, Zylinder, dreieckiges Prisma, Quader mit dünnem rechteckigem Prisma-„Griff“ und dünnem rechteckigem Prisma) und nach seinem Material (z. B. Holz oder Aluminium). ), wie in Tabelle 1 beschrieben. Die Teilnehmer wurden aufgefordert, die Greifaktionen so natürlich wie möglich auszuführen, das für sie angenehmere Tempo zu wählen und schließlich das Tempo zwischen den Aufgabenwiederholungen so gleichmäßig wie möglich zu halten. Darüber hinaus wurden akustische Hinweise als Start- und Stoppsignale bereitgestellt, um die Tempokonsistenz zu unterstützen. Wichtig ist, dass jeder Objektform, unabhängig von ihrem Material, vorab ein bestimmtes Griffmuster zugewiesen wurde (Tabelle 1) und die Teilnehmer gebeten wurden, dieses Muster für alle Greifaktionen im Zusammenhang mit dieser bestimmten Objektform zu verwenden. Ein Testbediener war damit beschäftigt, ständig zu überprüfen, dass immer der richtige Griff verwendet wurde, andernfalls wurde ein zweiter Bediener, der die Erfassungssoftware steuerte, über die Schaltfläche „Versuch wiederholen“ aufgefordert, die Daten zu verwerfen.

Die Reihenfolge der Objektformen wurde stets zufällig gewählt, um Lern- oder Anpassungseffekte zu vermeiden. Ähnlich wie beim SHAP-Protokoll25 wurden zuerst Objekte aus Holz ausgeführt, dann wurde die gleiche Reihenfolge mit Objekten aus Metall wiederholt. Vor dem Start mit einem neuen Objekt wurden nicht aufgezeichnete Trainingsversuche angeboten, um das Kennenlernen neuer Gewichte und Materialien zu ermöglichen und die Auswahl und Konstanz des Tempos zu erleichtern.

Das Pick-Lift-and-Move-Szenario stellt eine dynamische Situation mit erhöhter Komplexität dar, in der der Benutzer das Zielobjekt aufnimmt und transportiert (Abb. 5), sodass sich die Näherungssensoren aus verschiedenen Richtungen auf das Objekt zubewegen. Tatsächlich befand sich hier das Zielobjekt abwechselnd auf zwei verschiedenen instrumentierten Plattformen, sodass es abwechselnd war, ob sich das Objekt zu Beginn der Aufgabe im Sichtfeld der Näherungssensoren befand oder nicht. Konkret war die linke Plattform beim Start im Blickfeld, die rechte hingegen nicht. Das Pick-Lift-and-Move-Szenario ähnelte dem Pick-and-Lift, jedoch mit folgenden Unterschieden:

Die Teilnehmer wurden gebeten, eine andere Position einzunehmen und ihre Füße an der Markierung Nr. 2 auf dem Boden auszurichten. Dabei war der Arm in der Ruheposition immer zwischen den beiden instrumentierten Plattformen ausgerichtet.

Die Bereiche Start (z. B. Aufnehmen) und Landen (z. B. Ersetzen) wechselten zwischen den Aufgabenwiederholungen, sodass der nächste Startbereich der vorherige Landebereich war.

Alle geteilten Daten wurden vollständig anonymisiert. Alle Teilnehmer unterzeichneten eine Einverständniserklärung zur Daten- und Medienerfassung und Veröffentlichung. Die ethische Genehmigung wurde vom Ethikkomitee der Scuola Superiore Sant'Anna erteilt (Ref. 12/2022).

HANDdata ist auf Figshare18 frei verfügbar. Die Daten wurden über Matlab erfasst und gespeichert, daher haben alle Dateien die Erweiterung *.mat. Um die Zugänglichkeit zu verbessern, wurden die Daten außerdem konvertiert und mit der Erweiterung *.csv geteilt und in einer intuitiven Ordnerstruktur organisiert.

Jede Datei ist eine Datenstruktur, die eine Liste von Variablen enthält, die im Folgenden kurz beschrieben werden:

Datum_Uhrzeit der Aufzeichnungssitzung im Format TT-MM-JJJJ_hh-mm

Dauer der Aufnahmesitzung in Sekunden

ID des freiwilligen Teilnehmers im Bereich 01–29

Aufgabe, entweder „Kalibrierung“, „Statisch“, „Pick-and-Lift“ oder „Pick-Lift-and-Move“

Element, das für die Aufnahmesitzung verwendet wird

ggf. vom Experimentator manuell hinzugefügte Notizen

Versuche, tatsächliche Rohdaten

Insbesondere werden die Rohdaten als Matrix in die Versuchsvariable eingefügt, wobei die Zeilen die Versuchsnummer und die Spalten den Sensor darstellen (Abb. 6). Die Daten der Sensoren werden wie folgt dargestellt:

rad, Daten vom Radar A121 in der Größe [num_frames * 40 Sweeps_per_Frame * 35 Range_points_per_Sweep]. Spezifische Details zu den Frames, Sweeps und Einstellungen des A121-Radars finden Sie im Datenblatt und im Online-Handbuch von Acconeer.

tof, Daten vom Flugzeit-VL53LCX mit der Größe [num_frames * 64 pixels_per_frame]. Jedes Pixel enthält den gemessenen Abstand vom Sensor für diesen bestimmten Bereich.

imu, Daten vom Trägheitssensor BMI160 in der Größe [num_samples * (3 xyz_axes_accelerometer + 3 xyz_axes_gyroscope)].

Plattform, Daten von Wägezellen mit der Größe [num_samples * (linke Plattform + rechte Plattform)].

Handschuh, Daten von CyberGlove in der Größe [num_samples * 18 stretch_sensors]. Die Nummerierung, Position und Bedeutung der Sensoren sind insbesondere in Abb. 7 zusammengefasst.

Schließlich werden die Rohdaten von jedem dieser Sensoren von einem Zeitvektor begleitet, der beschreibt, wann ein bestimmtes Bild oder Sample tatsächlich erfasst wurde.

Es ist erwähnenswert, dass für das Pick-Lift-and-Move-Szenario keine explizite Erwähnung der Start-/Endplattformen erfolgt. Diese Information kann jedoch leicht aus der Anzahl der Versuche abgeleitet werden (ungerade Versuche = Start auf der linken Plattform und gerade Versuche = Start auf der rechten Plattform).

Jede Kalibrierungsdatei ist durch das CAL-Label im Dateinamen gekennzeichnet und umfasst 9 Versuche, die aus den folgenden Daten bestehen:

Statische Aufnahme ohne Objekt für ca. 5 Sekunden. Die Teilnehmer hatten den Arm ausgestreckt, den Ellbogen im 45°-Winkel und das Handgelenk nach hinten gebeugt und zielten auf eine etwa 1 Meter entfernte weiße Wand.

Lassen Sie die Hand etwa 5 Sekunden lang ruhen. Die Teilnehmer befanden sich in Ruheposition, d. h. der rechte Oberarm lag am Körperrumpf an, das Ellenbogengelenk war um 90° gebeugt, die Handfläche zeigte nach links und senkrecht zum Boden.

Hand öffnen und ausruhen.

Hand schließen und ausruhen.

Zeigefinger beugen und ausruhen.

Mittelfinger beugen und ausruhen.

Ringfinger beugen und ausruhen.

Beugen Sie den kleinen Finger und ruhen Sie sich aus.

Daumen und Finger beugen und ausruhen.

Rohdatenstruktur.

CyberGlove-Sensoren.

Die in der Kalibrierungsdatei enthaltenen Daten können Referenzwerte der Sensoren für jedes Subjekt liefern, beispielsweise Basislinien und Variationsbereiche. Wir haben diese Informationen in Tabelle 2 zusammengefasst.

Die Beschreibung, die sich auf Dateien im *.mat-Format bezieht, ist fast vollständig auf das *.csv-Format anwendbar, mit den folgenden Unterschieden:

Die Daten werden in verschiedenen Dateien innerhalb einer intuitiven Ordnerstruktur organisiert.

Jeder Sensor für jeden Versuch verfügt über eine eigene Datei, die immer den Zeitvektor als erste Spalte enthält.

rad, Daten vom Radar A121 in der Größe [num_frames * 1400 Sweeps_per_frame * range_points_per_sweep], organisiert als (fr1,sw1,rp1) (fr1,sw2,rp1) (fr1,sw3,rp1).

Die aufgezeichneten Daten sind in 30 verschiedenen Ordnern strukturiert, von denen einer den statischen Labordaten und der Rest den 29 freiwilligen Teilnehmern gewidmet ist. Der bench-static-Ordner enthält 10 Dateien, eine für jedes Objekt. Die Ordner der Teilnehmer enthalten 31 Dateien, eine für die Kalibrierungssitzung und der Rest für jede Aufgabe und jedes Objekt (dh 3 Aufgaben * 10 Objekte).

Jede Datei in diesen Ordnern wurde als benannt, wobei jede Information wie oben beschrieben ist. Beispielsweise enthält die Datei „02_PLM_box-wood_3-11-2022_15-26.mat“ die Aufzeichnung „Pick-Lift-and-Move“ mit der Holzkiste des freiwilligen Teilnehmers Nummer 02.

Die Ordnerstruktur für die *.csv-Dateien folgt einer ähnlichen hierarchischen Logik, die auf die *.mat-Datenstrukturen angewendet wird. Die aufgezeichneten Daten sind in 30 verschiedene Hauptordner unterteilt, von denen einer den statischen Labordaten und der Rest den 29 freiwilligen Teilnehmern gewidmet ist. In jedem Hauptordner gibt es Unterordner für jedes Szenario (oder jede Aufgabe). Um noch einen Schritt weiter zu gehen, gibt es für jedes Objekt in diesem Szenario eigene Unterordner. Alle informativen Variablen wie Datum_Uhrzeit, Dauer, ID, Aufgabe, Element und Notizen sind hier in einer speziellen *.txt-Datei enthalten. Schließlich enthält jeder dieser Ordner separate *.csv-Dateien für jeden Sensor.

Im folgenden Abschnitt stellen wir mehrere Analysen vor, die der Validierung der erfassten Daten dienen. Alle Daten wurden mit dem Skript „data_validation“ und den verfügbaren integrierten Funktionen von MATLAB (R2022b, MathWorks) analysiert.

Um die Dynamik der Pick-and-Lift-Versuche zu validieren, haben wir zunächst die Time-to-Reach berechnet, die als Zeit zwischen dem Start des Versuchs und dem Erreichen des Zielobjekts definiert ist (Abb. 8, oben). Die Zeit bis zum Erreichen wurde sowohl aus den Plattform- als auch aus den Trägheitssensordaten berechnet. Für die Plattformdaten wurde in der ersten Versuchshälfte der Berührungsmoment als Maximum ermittelt. Für die Daten des Inertialsensors wurde der Zeitpunkt der Berührung als erste Maxima auf der z-Achse angenähert, also der Zeitpunkt, an dem die Beschleunigung zum Zielobjekt Null war. Den Plattformdaten zufolge erreichten die Teilnehmer das Ziel in 1,04:0,26 Sekunden (MEDIAN:IQR). Der Vollständigkeit halber fügen wir einen repräsentativen Versuch einer Pick-and-Lift-Aktion mit dem Metallzylinder als Ziel bei (Abb. 8, unten).

Validierung von Greifversuchen, Plattform- und Trägheitssensordaten. Die Zeit bis zum Erreichen des Zielobjekts wurde für alle Pick-and-Lift-Versuche sowohl anhand der Plattform- als auch der Trägheitssensordaten (oben) berechnet. Ein repräsentativer Versuch einer Pick-and-Lift-Aktion mit dem Metallzylinder als Ziel (unten).

Zweitens haben wir zur Validierung der statischen Versuche und der Daten des Radars und der Flugzeitsensoren deren minimale gemessene Entfernungen für die statischen Benutzerversuche berechnet (Abb. 9). Ziel war es zu beweisen, dass sich die Zielobjekte tatsächlich im Sichtbereich jedes Sensors befanden, etwa etwa 10–15 cm von den Sensoren entfernt. Niedrigere Werte und allgemeine Schwankungen können auf die Messwerte der Sensoren am Unterarm der Teilnehmer und auf der Plattform zurückgeführt werden, auf der sich die Zielobjekte befanden.

Validierung statischer Versuche, Radar- und Flugzeitsensordaten. Vergleich der gemessenen Mindestabstände für statische Versuche.

Drittens haben wir zur Validierung der CyberGlove-Daten den Mittelwert einiger der repräsentativsten Sensorwerte berechnet, wie in früherer Literatur vorgeschlagen (d. h. Sensoren 5, 6, 10, 13 wie in27), bei Kontakt mit dem Zielobjekt in Greifversuche (Abb. 10). Ziel war es, einige grundlegende Muster in der endgültigen Position von Zeige-, Ring- und kleinem Finger beim Greifen von Objekten unterschiedlicher Größe, die eine unterschiedliche Handhaltung erfordern, visuell zu demonstrieren. Insbesondere würden höhere Messwerte einer stärkeren Dehnung der Sensoren im Vergleich zur Ruheposition entsprechen (dh einer größeren Beugungsspanne des Zeige-, Ring- und kleinen Fingers). Tatsächlich erzeugten die für die Prismen erforderlichen Dreifinger- und Klemmgriffe eine ähnliche durchschnittliche Flexionsspanne. In ähnlicher Weise können wir für die Kugel- und Kraftgriffe eine ähnliche gemittelte Flexionsspanne erkennen. Stattdessen erforderte der seitliche Griff des Quaders mit Griff eine vollständige Beugung des Zeige-, Ring- und kleinen Fingers, was zu höheren Durchschnittswerten führte.

Validierung der Daten der CyberGlove-Strecksensoren. Mittelwert der repräsentativsten Sensorwerte (d. h. 5, 6, 10, 13) bei Kontakt mit jedem Zielobjekt während Greifversuchen.

Leider stellten wir bei der technischen Validierung der Daten fest, dass einer der 18 Dehnungssensoren des CyberGlove nicht funktionsfähig war. Dieser Sensor bezieht sich auf die Daumenrollbewegung, für die wir leider keine Daten angeben können. Dennoch glauben wir, dass die Daumenposition während der aufgezeichneten Aktionen durch die drei verbleibenden Sensoren anständig dargestellt werden kann.

Abschließend ist es wichtig zu beachten, dass unser Setup keine Hardware-Synchronisierungsleitungen hatte. Folglich basierte die zeitliche Synchronisierung unserer Daten auf Zeitstempeln, die für jede eingehende Datenmenge auf dem USB-Stick generiert wurden. Dieser Ansatz kann jedoch potenzielle Nachteile in Bezug auf hohe Latenz und schlechten Determinismus mit sich bringen. Daher haben wir die zeitliche Konsistenz der erfassten Datenmengen analysiert. Wir haben festgestellt, dass der Interquartilbereich des Zeitabstands zwischen den Massen 10,43 ms für die MCU-basierte kundenspezifische Leiterplatte beträgt, die IMU-, Radar- und TOF-Daten bereitstellt, 8,36 ms für die MCU-basierte kundenspezifische Leiterplatte, die die Plattform-Wägezellendaten bereitstellt, und 5,87 ms für der CyberGlove II. Daher argumentieren wir, dass das Daten-Streaming eine zeitliche Konsistenz und einen allgemeinen Desynchronisierungsfehler aufwies, der für einen Datensatz über menschliche Bewegungen geeignet ist.

Zusammen mit dem Datensatz stellen wir auch das Matlab-Skript „data_validation“ zur Verfügung, das zur technischen Validierung der Daten dient. Dieses Skript wird von hilfreichen Kommentaren begleitet und kann als Beispiel dafür verwendet werden, wie man auf die Daten zugreift und damit umgeht (z. B. wie man auf die Datenstruktur zugreift, wie man Teilnehmer, Szenarien und Versuche durchläuft, wie man auf bestimmte Versuchsinformationen zugreift usw finden Sie die Berührungsmomente über IMU oder über die Plattform).

Fang, H.-S., Wang, C., Gou, M. & Lu, C. GraspNet-1Billion: Ein groß angelegter Benchmark für die allgemeine Objekterfassung. im Jahr 2020 IEEE/CVF-Konferenz zu Computer Vision und Mustererkennung (CVPR) 11441–11450, https://doi.org/10.1109/CVPR42600.2020.01146 (IEEE, 2020).

Garcia-Hernando, G., Yuan, S., Baek, S. & Kim, T.-K. Handaktions-Benchmark aus der ersten Person mit RGB-D-Videos und 3D-Anmerkungen zur Handhaltung. im Jahr 2018 IEEE/CVF-Konferenz zu Computer Vision und Mustererkennung 409–419, https://doi.org/10.1109/CVPR.2018.00050 (IEEE, 2018).

Atzori, M. & Muller, H. Die Ninapro-Datenbank: Eine Ressource für natürlich gesteuerte sEMG-Roboterhandprothesen. im Jahr 2015, 37. jährliche internationale Konferenz der IEEE Engineering in Medicine and Biology Society (EMBC), Bände 2015-November 7151–7154 (IEEE, 2015).

Brahmbhatt, S., Tang, C., Twigg, CD, Kemp, CC & Hays, J. ContactPose: Ein Datensatz von Griffen mit Objektkontakt und Handhaltung. 1–25 (2020).

Jarque-Bou, NJ, Vergara, M., Sancho-Bru, JL, Gracia-Ibáñez, V. & Roda-Sales, A. Eine kalibrierte Datenbank der Kinematik und EMG des Unterarms und der Hand bei Aktivitäten des täglichen Lebens. Wissenschaft. Daten 6, 270 (2019).

Artikel PubMed PubMed Central Google Scholar

Han, M., Günay, SY, Schirner, G., Padır, T. & Erdoğmuş, D. HANDS: ein multimodaler Datensatz zur Modellierung der menschlichen Greifabsichtsinferenz in Handprothesen. Intel. Serv. Roboter. 13, 179–185 (2020).

Artikel PubMed Google Scholar

Mandery, C., Terlemez, O., Do, M., Vahrenkamp, ​​N. & Asfour, T. Die KIT-Datenbank für menschliche Ganzkörperbewegungen. im Jahr 2015 International Conference on Advanced Robotics (ICAR) vol. 611909 329–336 (IEEE, 2015).

Bullock, IM, Feix, T. & Dollar, AM Der menschliche Greifdatensatz von Yale: Greif-, Objekt- und Aufgabendaten in Haushalten und Maschinenwerkstätten. Int. J. Rob. Res. 34, 251–255 (2015).

Artikel Google Scholar

Eppner, C., Mousavian, A. & Fox, D. AKRONYM: Ein groß angelegter Grasp-Datensatz basierend auf Simulation. Proz. - IEEE Int. Konf. Roboter. Autom. 2021 (Mai), 6222–6227 (2021).

Google Scholar

Zhang, H. et al. REGRAD: Ein groß angelegter relationaler Greifdatensatz für sicheres und objektspezifisches Robotergreifen in Unordnung. IEEE-Roboter. Autom. Lette. 7, 2929–2936 (2022).

Artikel Google Scholar

Shukla, D., Erkent, O. & Piater, J. Ein Multi-View-Handgesten-RGB-D-Datensatz für Mensch-Roboter-Interaktionsszenarien. im Jahr 2016 25. IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN) 1084–1091, https://doi.org/10.1109/ROMAN.2016.7745243 (IEEE, 2016).

Depierre, A., Dellandrea, E. & Chen, L. Jacquard: Ein groß angelegter Datensatz für die Greiferkennung durch Roboter. im Jahr 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) 3511–3516, https://doi.org/10.1109/IROS.2018.8593950 (IEEE, 2018).

Furmanek, MP, Mangalam, M., Yarossi, M., Lockwood, K. & Tunik, E. Ein kinematischer und EMG-Datensatz zur Online-Anpassung von Greifbewegungen an visuelle Störungen. Wissenschaft. Daten 9, 23 (2022).

Artikel PubMed PubMed Central Google Scholar

Luciw, MD, Jarocka, E. & Edin, BB Mehrkanal-EEG-Aufzeichnungen während 3.936 Greif- und Hebeversuchen mit unterschiedlichem Gewicht und unterschiedlicher Reibung. Wissenschaft. Daten 1, 140047 (2014).

Artikel PubMed PubMed Central Google Scholar

Klein, LK, Maiello, G., Paulun, VC & Fleming, RW Vorhersage präziser Griffpositionen an dreidimensionalen Objekten. PLOS-Computing. Biol. 16, e1008081 (2020).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Klein, LK, Maiello, G., Fleming, RW & Voudouris, D. Beim präzisen Greifen wird die Reibung der Griffkonfiguration vorgezogen. J. Neurophysiol. 125, 1330–1338 (2021).

Artikel PubMed Google Scholar

Lopes, A., Souza, R. & Pedrini, H. Eine Umfrage zu RGB-D-Datensätzen. https://doi.org/10.1016/j.cviu.2022.103489 (2022).

Mastinu, E., Coletti, A., Mohammad, SHA, van den Berg, J. & Cipriani, C. HANDdata – First-Person-Datensatz einschließlich Näherungs- und Kinematikmessungen von Reach-to-Greif-Aktionen. Figshare https://figshare.com/s/a16f91b93d346b436bdd (2023).

Castro, MN & Dosen, S. Kontinuierliche halbautonome Prothesensteuerung mithilfe eines Tiefensensors an der Hand. Vorderseite. Neuroroboter. 16, 1–17 (2022).

Artikel Google Scholar

Starke, J., Weiner, P., Crell, M. & Asfour, T. Halbautonome Steuerung von Handprothesen basierend auf multimodaler Wahrnehmung, menschlicher Griffdemonstration und Benutzerabsicht. Rauben. Auton. Syst. 154, 104123 (2022).

Artikel Google Scholar

Gao, A. et al. Fortschritte in der Robotik zur Bekämpfung von Infektionskrankheiten. Wissenschaft. Roboter. 6 (2021).

Miseikis, J. et al. Lio – ein persönlicher Roboterassistent für Mensch-Roboter-Interaktion und Pflegeanwendungen. IEEE-Roboter. Autom. Lette. 5, 5339–5346 (2020).

Artikel PubMed Google Scholar

Bohren, J. et al. Auf dem Weg zu autonomen Roboter-Butlern: Erkenntnisse aus dem PR2. im Jahr 2011 IEEE International Conference on Robotics and Automation 5568–5575, https://doi.org/10.1109/ICRA.2011.5980058 (IEEE, 2011).

Zhang, B., Xie, Y., Zhou, J., Wang, K. & Zhang, Z. Hochmoderne Robotergreifer, Greif- und Steuerungsstrategien sowie ihre Anwendungen in landwirtschaftlichen Robotern: Ein Rückblick . Berechnen. Elektron. Landwirtschaft. 177, 105694 (2020).

Artikel Google Scholar

Light, CM, Chappell, PH & Kyberd, PJ Etablierung eines standardisierten klinischen Bewertungsinstruments für pathologische und prothetische Handfunktionen: Normative Daten, Zuverlässigkeit und Gültigkeit. Bogen. Physik. Med. Rehabilitation. 83, 776–783 (2002).

Artikel PubMed Google Scholar

Yeo, H.-S., Flamich, G., Schrempf, P., Harris-Birtill, D. & Quigley, A. RadarCat. in Proceedings of the 29th Annual Symposium on User Interface Software and Technology 833–841, https://doi.org/10.1145/2984511.2984515 (ACM, 2016).

Angelini, L., Uliano, M., Mazzeo, A., Penzotti, M. & Controzzi, M. Selbstkollisionsvermeidung bei bimanueller Teleoperation mit CollisionIK: Algorithmusrevision und Usability-Experiment. im Jahr 2022 IEEE-RAS 21. Internationale Konferenz über humanoide Roboter (Humanoide) 112–118, https://doi.org/10.1109/Humanoids53995.2022.10000179 (IEEE, 2022).

Referenzen herunterladen

Dieses Projekt wurde vom Forschungs- und Innovationsprogramm Horizont 2020 der Europäischen Union im Rahmen der Marie-Skłodowska-Curie-Stipendienvereinbarung Nr. 101029946 gefördert. Anna Coletti ist Doktorandin und im National PhD in Artificial Intelligence, Zyklus XXXVIII, Kurs „Gesundheit und Leben“ eingeschrieben Naturwissenschaften, organisiert von der Università Campus Bio-Medico di Roma. Die Autoren möchten Acconeer AB für die Unterstützung und kostenlose Weitergabe von Proben des neuesten Radars A121 sowie allen freiwilligen Helfern für das Datenerfassungsexperiment ihren Dank aussprechen.

BioRobotics Institute, Scuola Superiore Sant'Anna, Pisa, Italien

Enzo Mastinu, Anna Coletti und Christian Cipriani

Technische Universität Delft, Delft, Niederlande

Samir Hussein Ali Mohammad & Jasper van den Berg

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

EM und CC konzipierten und erhielten die Finanzierung für das Forschungsprojekt zur autonomen Hand; EM entwarf das Datenerfassungsprotokoll, SHAM und JVDB halfen bei der Fertigstellung; EM entwickelte Elektronik und Software, SHAM und JVDB entwickelten das anpassbare Armband, das Gehäuse und die instrumentierten Plattformen; SHAM und JVDB führten eine Datenerfassung und vorläufige Datenanalyse durch; EM überwachte die Datenerfassung und kümmerte sich um ethische Einwilligungen; AC führte eine vorläufige Datenanalyse und technische Datenvalidierung durch; EM hat das Manuskript verfasst; CC überwachte das Datenerfassungsexperiment und das gesamte Forschungsprojekt; Alle Autoren haben das eingereichte Manuskript geprüft und genehmigt.

Korrespondenz mit Enzo Mastinu.

CC ist der Gründer von Prensilia SRL, einem Universitäts-Spin-off, das mehrgelenkige und sensorisierte Roboterhände entwickelt. Alle Autoren erklären, dass diese Forschung in Abwesenheit jeglicher kommerzieller oder finanzieller Beziehungen durchgeführt wurde, die einen potenziellen Interessenkonflikt darstellen könnten.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Mastinu, E., Coletti, A., Mohammad, SHA et al. HANDdata – First-Person-Datensatz einschließlich Näherungs- und Kinematikmessungen von Reach-to-Greif-Aktionen. Sci Data 10, 405 (2023). https://doi.org/10.1038/s41597-023-02313-w

Zitat herunterladen

Eingegangen: 06. März 2023

Angenommen: 14. Juni 2023

Veröffentlicht: 24. Juni 2023

DOI: https://doi.org/10.1038/s41597-023-02313-w

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

AKTIE