Zweiter Platz in der Brazil Open

Dieser Samstag war sehr aufregend für uns. Es war der Tag an dem die Brazil Open geendet ist und an dem die Ergebnisse offiziell verkündet wurden.
Wir haben uns online getroffen um die Preisverleihung gemeinsam zu erleben und die Tabelle mit den Ergebnissen wurde langsam gefüllt. Da die Ergebnisse vom letzten zum Ersten Platz verkündet wurden, wurde es immer aufregender je mehr Plätze in der Tabelle gefüllt wurden, die nicht unseren Namen beinhalteten.

Bevor wir aber über die Ergebnisse mit mehr Details reden, lasst mich euch kurz erzählen worum es in der Brazil Open ging. Durch COVID-19 konnten wir leider nicht an einem regulären Turnier teilnehmen bei dem unsere Roboter miteinander Fußball spielen dürfen. Deshalb mussten die Organisatoren der Brazil Open kreativ werden und sich eine Möglichkeit ausdenken wie die Teams trotzdem gegeneinander antreten konnten.

Der Wettkampf bestand deshalb aus zwei Teilen.
Der eine Teil war, dass wir ein 10 Minuten Video erstellen sollten in dem wir uns selber, unsere Roboter und unsere Forschung präsentieren. Ihr könnt euch dieses Video hier ansehen:

Der andere Teil des Wettkampfes bestand daraus, dass wir Roboter in Bildern erkennen mussten. Es gab Punkte dafür, wie viele Roboter richtig erkannt wurden und wie schnell wir in der Lage waren die Bilder zu verarbeiten.
Die Organisatoren haben uns eine Liste von Bildern bereit gestellt die wir benutzen konnten um unser System zu trainieren. Die Bilder stammen dabei aus dem ImageTagger, den wir entwickelt haben.

Jetzt wo ihr ein wenig mehr über den Wettkampf Bescheid wisst, können wir uns jetzt die Ergebnisse anschauen.

Die erste Spalte sind die Team Namen, gefolgt von den Punkten für die Roboter Erkennung und den Punkten für die Videos.

Wie ihr sehen könnt, haben wir einen gemeinsamen zweiten Platz, mit dem Team RoboFEI, in der Roboter erkennen Herausforderung erzielt. Wir haben dafür ein neuronales Netzwerk namens YOLOv4-tiny verwendet und konnten damit 94% der Roboter richtig erkennen. Wir konnten dabei 35 Bilder in der Sekunde verarbeiten. Team RoboFEI hat etwas weniger Roboter erkannt, war dafür aber schneller in der Verarbeitung der Bilder.

Unser Video hat die höchste Punktzahl in der RoboCup Brazil Open für Humanoid Robots Liga erzielt. Damit kamen wir auf insgesamt 80.875 Punkte.

Wir sind sehr glücklich mit den Ergebnissen und hatten eine Menge Spaß bei diesem Wettbewerb. Wir wollen uns hiermit bei den Organisatoren für das Veranstalten dieses Wettbewerbs bedanken und gratulieren den ITAndroids zum Sieg!

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

Brazil Open

Wir können leider wegen COVID-19 nicht an Turnieren teilnehmen zu denen wir reisen müssten. Das hält uns natürlich nicht davon ab weiter an unseren Robotern zu arbeiten. Als wir von der Brazil Open erfahren haben, haben wir uns also natürlich sofort beworben.

Da unsere Roboter nicht direkt gegeneinander antreten können, haben die Organisatoren sich entschieden, dass jedes Team ein Video vorstellen, in dem das Team sich selbst vorstellt. Die Videos dürfen bis zu 10 Minuten lang sein und sollen neben dem Team selber auch die Forschung des Teams vorstellen.
Zusätzlich zu dem Videos dürfen die Teams auch gegeneinander mit ihren Vision Systemen antreten. Die Organisatoren haben sich zehntausende Bilder von Robotern ausgesucht um unsere Systeme darauf zu trainieren Roboter in Bildern zu erkennen. Die Bilder wurden ausgewählt vom ImageTagger, den wir entwickelt haben.

Wir hatten schon eine Menge Spaß und freuen uns noch mehr darauf unsere Ergebnisse mit denen der anderen Teams vergleichen zu dürfen. Die Videos werden auf dem Youtube Kanal des Turnieres gezeigt werden. Die Videos werden morgen (Donnerstag) ab 13:15 gezeigt und am Freitag ab 14:00.
Die Ergebnisse des Visison Wettbewerbs werden veröffentlicht, wenn alle Teams ihre Ergebnisse vorgestellt haben. Das sollte spätestens am Samstag sein.

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

Dritter Platz in der Running Robot Competition

Letztes Jahr bekamen wir die Möglichkeit an der Running Robot Competition in China teilzunehmen. Da wir im letzten Jahr Spaß hatten, wollten wir auch dieses Jahr wieder daran teilnehmen.

Die Running Robot Competition ist kein Teil der RoboCup Turniere an denen wir normalerweise teilnehmen. Sie ist ein Turnier in dem die Roboter durch einen Parkour laufen müssen und dabei mehrere Hindernisse überwinden müssen. Diese Hindernisse können z.B. sein, dass der Roboter warten muss bis eine Schranke nicht mehr im Weg ist, oder über Treppenstufen laufen zu müssen.

Wegen Covid-19 hatten wir leider nicht die Möglichkeit in Person teilzunehmen, aber wir freuten uns trotzdem über das Internet teilnehmen zu können. Um das zu ermöglichen haben die Veranstalter uns eine Simulationsumgebung bereit gestellt.

Wir haben uns einige Optionen überlegt wie man die Probleme lösen könnte.
Angefangen mit einem konventionellen Ansatz in dem wir eine Vision entwickeln würden um z.B. die die gelben und schwarzen Segmente der Schranke zu erkennen. Sobald die Schranke dann in einem bestimmten Winkel ist, könnte der Roboter dann los laufen.

Wir wollten aber die Möglichkeit nutzen und uns mit etwas beschäftigen, mit dem die meisten aus unserem Team weniger Erfahrung hatten. Deshalb haben wir uns entschieden reinforcement learning für unseren Ansatz zu verwenden.

Reinforcement learning ist ein Ansatz in dem wir neuronale Netze verwenden, damit der Roboter lernen kann an den Hindernissen vorbei zu kommen, ohne das wir dem Roboter erklären müssen wie er das schafft. Das kann auch zu Lösungen führen die effizienter sind als Lösungen auf die wir gekommen wären. Das kann sein, dass der Roboter einen Fehler in der Physik im Simulator und sich ins Ziel teleportiert oder etwas so simples wie einen Weg zu finden, an den wir nicht gedacht haben.

Als Eingabe für den reinforcement learning Algorithmus haben wir nur das Kamerabild des Roboters verwendet. Ausgehend von diesem Bild musste der Roboter dann herausfinden was er tun sollte. Sollte er warten bis die Schranke oben ist oder kann er schon anfangen zu laufen?
Das klingt trivial für uns Menschen, aber der Roboter hat zu Beginn kein Konzept davon, dass die Schranke ein Hindernis ist. Am Anfang kann der Roboter nicht einmal unterscheiden zwischen dem Boden auf den er treten kann und einem solchen Hindernis.

Um dem Roboter zu helfen solche Dinger zu lernen, haben wir ihm Punkte als Belohnung gegeben, wenn er sich dem Ziel näherte und ihm welche abgezogen, wenn er in ein Hindernis wie die Schranke gelaufen ist.

Der Roboter konnte nur die Richtung bestimmen in die er gelaufen ist. Wir haben das selbe Programm zum laufen genutzt wie wir es auch auf unseren Fußballspielenden Robotern einsetzen. Da in dem Wettkampf ein anderer Roboter verwendet wurde, mussten wir einige Parameter anpassen. Zum Glück hatten wir ein Skript von unserem vorhandenen Laufen, mit dem der Roboter lernen konnte ideal zu laufen in dieser neuen Simulation.

Mit diesem Ansatz konnten wir die ersten Hindernisse überqueren. Wegen eines Missverständnisses, hatten wir weniger Zeit als geplant und wir konnten leider nicht den gesamten Parkour beenden.

Wir hatten eine Menge Spaß damit unseren Ansatz zu entwickeln um die Probleme zu lösen vor die uns die Running Robot Competition stellte. Wir freuten uns auch über die Möglichkeit viel über reinforcement learning zu lernen.

Wie ihr wahrscheinlich schon aus dem Titel gelesen habt, hatten wir nicht nur jede Menge Spaß während des Wettkampfs, sondern haben sogar den dritten Platz bekommen!

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

BitBots@home

Keine Sorge, wir haben nicht plötzlich beschlossen, in eine andere Liga zu wechseln. Aber auch wir sind natürlich momentan von der anhaltenden Krise betroffen und müssen uns irgendwie mit den neuen Einschränkungen arrangieren. Deshalb hier ein kurzes Update, was in den letzten Wochen bei uns alles passiert ist:

Heute vor drei Wochen hätten wir eigentlich mitten in unserem WM-Vorbereitungscamp stecken sollen. Als wir die Nachricht bekamen, dass daraus nichts wird, dass sämtliche nicht notwendigen Aktivitäten der Universität eingestellt sind und, dass wir bis auf weiteres unser Labor vermutlich nicht betreten dürfen, waren wir natürlich zuerst sehr unsicher, wie es für uns weitergeht. Dennoch haben wir uns recht schnell von dem Schock erholt, Videokonferenzen eingerichtet, unsere Ziele neu priorisiert und alle dringend notwendigen Dinge aus dem Labor in unsere Wohnungen geschafft. Trotz der widrigen Umstände haben wir die Hamburg Closed effektiv nutzen können um viele der noch offenen Todos zu lösen.

Dadurch, dass die Nutzung physischer Roboter im Moment eher schwierig ist, waren diese Änderungen auch ein Ansporn, unsere Simulationstechnik zu überarbeiten: Dank eines neuen, präziseren Robotermodells und dem Umstieg auf PyBullet als Simulationssoftware können in Zukunft vermutlich viele Lösungen komplett ohne Roboter getestet werden. Zusätzlich haben wir beschlossen, dass dieser Zeitpunkt auch den Release der Softwareversion 2.0 bedeutet. Auch, wenn einige zunächst geplante Features nicht mehr getestet und deswegen nicht mehr Teil dieser Version werden konnten, sind wir zufrieden mit dem Ergebnis, das nun unter Anderem ein wesentlich verbessertes Laufen und die zweite Version unserer Lokalisierung beinhaltet.

Inzwischen haben wir uns an unsere neue Situation gewöhnt, das Chaos lässt etwas nach, wir halten wieder regelmäßige Meetings ab (natürlich online) und arbeiten schon mit großem Eifer daran, 2021 den Weltmeistertitel zu holen.

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

RoboCup 2020 Bewerbung

Wir wollen auch 2020 wieder an der Weltmeisterschaft teilnehmen. Für die Bewerbung waren die Bedingungen ein wenig anders als in den letzten Jahren.

Dieses Jahr mussten wir statt einem Team Description Paper einen Extended Abstract schreiben. Darin haben wir beschrieben was wir auf der Weltmeisterschaft in Sydney gelernt haben, was die wichtigsten Probleme, die wir bis zur nächsten Weltmeisterschaft lösen müssen sind und was wir bis zur Weltmeisterschaft in Bordeaux gerne entwickeln würden. Unser Extended Abstract ist in unseren wissenschaftlichen Arbeiten und hier zu finden.

Außerdem haben wir ein Video erstellt, das die Fähigkeiten unseres Roboters zeigt:

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

Informatik-EXPO

Gestern veranstaltete der Fachbereich Informatik eine EXPO, auf der studentische Projekte ihre Arbeit vorstellen konnten. Natürlich waren auch wir mit 6 Postern vertreten.

Dabei waren auch zwei Arbeiten, die im Rahmen unseres Praktikums entstanden sind, nämlich unser dynamischer Kick und der visuelle Kompass. Mithilfe des dynamischen Kicks können wir den Ball in beliebige Richtungen treten und gleichzeitig unseren Roboter stabilisieren, sodass wir nicht umfallen. Dadurch sind wir im Spiel wesentlich flexibler und können schneller reagieren. Der visuelle Kompass unterstützt uns bei der Lokalisierung, indem wir anhand von einzigartigen Features außerhalb des Feldes erkennen, in welche Richtung der Roboter schaut, was uns auf dem ansonsten symmetrischen Feld einen großen Vorteil bietet.

Auch je eine unserer Bachelor- und Masterarbeiten wurden präsentiert: Mit unserem Partikelfilter können wir aus den Informationen mehrerer Roboter filtern, an welcher Position sich verschiedene Objekte tatsächlich befinden und so Fehler verringern. In der Masterarbeit ging es um unsere neue Lokalisierung, die wesentlich schneller und genauer funktioniert und uns so bessere Ergebnisse liefert.

Nicht zuletzt waren auch zwei Projekte vertreten, die direkt in der AG entstanden sind: Mit dem Bit-Foot können wir die Gewichtsverlagerung und Belastung des Fußes mithilfe von Drucksensoren bestimmen und erhalten so zusätzlich zu unserem Gyroskop wertvolle Informationen, die verhindern, dass unser Roboter das Gleichgewicht verliert. Das letzte Projekt hat unsere Vision-Pipeline vorgestellt, mit der wir Bälle, Torpfosten, Linien und Spieler präzise und auch in großer Distanz erkennen können.

Wir hatten viele Möglichkeiten, unsere Arbeiten zu präsentieren, uns auszutauschen und die Projekte unserer Kommilitonen kennen zu lernen. Wir freuen uns, dass unsere Arbeit so großen Anklang bei so vielen Studenten gefunden hat.

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

Schnupperstudium 2019

Auch in diesem Jahr haben wir wieder eines der Projekte im Schnupperstudium der Informatikfakultät angeboten. Eine Woche lang lernten die sechs Studenten die Grundlagen der Robotik und den Alltag der Studenten kennen.

Auch der Roboter Cozmo war dieses Jahr wieder dabei, um dem Traum, ein Fußballstar zu werden, näher zu kommen. Nach einem kurzen Warm-up mit der zugehörigen App und einigen Programmieraufgaben gab es eine Einführung in die Programmiersprache Python und schließlich die große Herausforderung: Cozmo sollte ein Tor schießen. Dafür musste zunächst ein orangener Ball gefunden werden und aus dem Kamerabild die Position in der echten Welt berechnet werden. Nun musste noch die Position der Torpfosten bestimmt werden, um schließlich den Ball ins Tor zu befördern.

Auch, wenn diese Aufgabe sehr schwierig war, konnten die zukünftigen Studenten am Ende der Woche gute Ergebnisse präsentieren. Die von den Schülern selbst erarbeitete Präsentation hat das Publikum überzeugt, und so wurde unser Projekt letztendlich als beste der drei Gruppen gekürt.

Neben der Projektarbeit haben die Schüler auch eine Führung durch das Computermuseum und das M-Lab erhalten und so die Arbeit in den Laboren kennengelernt und erlebt, wie Forschung tatsächlich funktioniert. Außerdem hatten sie die Gelegenheit, auf der EXPO verschiedenste Projekte des Fachbereichs genauer unter die Lupe zu nehmen, Fragen zu stellen und auszuprobieren.

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

Running Robot Beijing

Manchmal passiert etwas unerwartetes und plötzlich findet man sich auf der anderen Seite der Welt wieder. So etwas in der Art erfuhren neulich vier mutige Bit-Bots: Letzte Woche wurden Jasper und Sebastian (menschlich), ebenso wie Rory und Jack (menschenähnlich) darüber informiert, dass sie wenige Tage später nach Beijing fliegen sollten, um dort eine Präsentation auf der ersten Running Robot Competition zu halten…

Als wir diese Nachricht erhielten, waren wir sehr aufgeregt, aber auch sehr gestresst. Denn es war noch so viel zu erledigen und nur so wenig Zeit. Und so wurden alle Räder in Bewegung gesetzt, sodass wir bis Mittwoch Abend unsere Visas erhielten, um Donnerstag morgen den Flug anzutreten. Der Flug verlief ruhig und nur 19 Stunden später betraten wir die Messehalle, um uns umzusehen. Unsere Präsentation sollte am Samstag stattfinden, also hatten wir noch mehr als genug Zeit, um uns vorzubereiten. Es konnte also nichts schiefgehen, richtig? Falsch! Es stellte sich heraus, dass es durchaus chaotisch wird, wenn man innerhalb von wenigen Stunden versucht, alle wichtigen Dinge zusammenzupacken. Und so standen wir in Beijing, mit zwei leeren Akkus und ohne Ladekabel. Dafür hatten wir ein LAN_Kabel eingepackt, das viel zu kurz war. Aber irgendwie haben wir uns arrangiert und trotzdem eine gute Präsentation abgeliefert. Tatsächlich schienen wir so gut angekommen zu sein, dass das chinesische Fernsehen uns interviewen wollte
(link).

Aber wir haben diese Reise nicht nur unternommen, um eine kurze Präsentation zu halten. Wir wollten die Chance auch nutzen, um die anderen Redner zu hören, und natürlich auch, um den Wettbewerb zu sehen. Auch, wenn sich viele der Präsentationen leider nur als Keyframe-Animationen herausstellten, die uns nicht wirklich weiterbringen, habe wir trotzdem viele neue Leute kennengelernt und einige bekannte Gesichter entdeckt. Der Wettbewerb bestand aus mehreren Parkourelementen, die der Roboter absolvieren musste. Innerhalb von 8 Minuten mussten 8 Aufgaben gelöst werden. Die meisten dieser Aufgaben konnten mit einfachen Farberkennungs-Algorithmen gut gelöst werden, aber für ein erstes Jahr war der Wettbewerb doch herausfordernd. Wir hoffen, dass die Regeln in den nächsten Jahren etwas angezogen werden, um die Teams dazu zu bewegen, neue Lösungen zu entwickeln. Vielleicht wäre es sinnvoll, einige Farben aus dem Parkour zu entfernen, um die Teams dazu zu bewegen, künstliche Intelligenz zu nutzen.

Schließlich haben wir auch etwas Zeit gefunden, um uns in Beijing umzusehen. Gemeinsam mit unseren großartigen Guides haben wir die verbotene Stadt gesehen, waren am Olympiapark und am Tian’anmen Square. Wir haben auch den Campus der Tsinghua Universität besucht und uns die Labore unserer Guides angesehen.

Und plötzlich, nur drei Tage später war es auch schon Zeit zu gehen. Es waren drei anstrengende, aber auch interessante Tage. Und vielleicht kommen wir ja noch ein mal zurück.

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

RoboCup 2019 – Fazit

Am zweiten Tag der Gruppenphase freuten wir uns über die Fähigkeit eines unserer Roboter. Er war am Ball vorbei gelaufen und entdeckte den Ball hinter sich. Um zum Ball zu kommen begann er rückwärts zu laufen. Das führte dazu, dass der Roboter anfing rückwärts den Ball zu dribbeln. Das war sehr amüsant anzusehen, aber zum Glück gelang es dem Roboter nicht auf diesem Wege den Ball in sein eigenes Tor zu bekommen.

Im Achtelfinale waren unsere Roboter aufgrund ihrer Hardware leider noch nicht wieder ausreichend einsatzbereit und mussten das Spiel am Spielfeldrand verbringen. Damit sind wir leider im Achtelfinale aus der Weltmeisterschaft ausgeschieden. Immerhin konnten wir während der Spiele viele Bilder aufnehmen, die uns in unseren Machine Learning Ansätzen in Zukunft unterstützen werden.

Den restlichen Wettbewerb haben wir dann nur noch als Zuschauer erleben können. Das hat es aber nicht weniger spannend gemacht, denn gerade in der KidSize werden die Spiele von Jahr zu Jahr spannender. Bereits ab dem Viertelfinale waren bei den meisten Teams Teamverhalten und Strategie deutlich zu erkennen. Im Finale traf schließlich Rhoban FC aus Frankreich auf das chinesische Team ZJUDancer.

Dort bewies Rhoban FC einige neue Fähigkeiten. In einem der vorherigen Spiele war es dem Team bereits gelungen den Ball über Roboter des anderen Teams herüber zu kicken. Direkt vor dem Finale konnte man Rhoban dabei beobachten wie der Roboter übte, sich für ein mögliches Elfmeterschießen hinzuwerfen. Im Finale selber bewies Rhoban die Fähigkeit einen Einwurf mit den Armen zu machen, der von allen Zuschauern stark bejubelt wurde, da kein anderes Team einen solchen Einwurf durchführen kann.

Vor dem Finale gab es aber noch die Technical Challenges. Hier werden die Teams herausgefordert, technische Lösungen für Probleme zu finden, die möglicherweise jetzt noch nicht spielrelevant sind, aber es immer mehr in der Zukunft werden. Eine dieser Challenges ist die Push Recovery. Hier geht es darum, den Schlag durch eine mit Sand gefüllte Flasche im Laufen auszuhalten ohne umzukippen. Dabei gelang es unserem Roboter von einer 2 Kilogramm schweren Flasche getroffen zu werden, aus 50 cm Entfernung, ohne umzufallen. Mit diesem Ergebnis haben wir den stärksten Schlag sowohl für die Kidsize als auch für die Teen Size ausgehalten. Da dieses Ergebnis mit dem Gewicht des Roboters verbunden wird, hat das in der Kidsize für diese Challenge aber nur für den zweiten Platz gereicht. In der Teen Size hingegen haben wir den ersten Platz in der Push Recovery erreicht.

Am Montag fand dann das Symposium statt, das als wissenschaftliche Konferenz jedes Jahr den Abschluss des RoboCup bildet. Auch wir haben dieses Jahr wieder aktiv teilgenommen und zwei Paper eingereicht, die zur Posterpräsentation angenommen wurden und auf Interesse bei anderen Teams stießen. Die Paper präsentieren eine Möglichkeit, höhere Frequenzen auf unserem Motorbus zu erreichen sowie den Aufbau unserer Vision. Beide sind im Bereich Wissenschaftliche Arbeiten zu finden. Viele vorgestellte Paper sind auch für uns relevant, etwa ein Ansatz zu einer effizienteren Objekterkennung, den wir auch auf unseren Robotern evaluieren möchten. Insgesamt war der Tag mit vielen interessanten Papervorträgen und inspirierenden Keynotes gefüllt und hat einen gelungenen Abschluss für den RoboCup gebildet.

Alles in allem war diese RoboCup Weltmeisterschaft leider nicht unsere erfolgreichste, dennoch haben wir viel gelernt. Deshalb werden wir unsere Hardware noch weiter optimieren, damit sie noch besser vor Fällen geschützt ist. Außerdem werden wir weiter unsere Software optimieren, damit wir auch taktisch bestens vorbereitet sind. Wir freuen uns darauf unsere Fortschritte im nächsten Jahr in Bordeaux präsentieren zu können und an der wissenschaftlichen Entwicklung teilzunehmen.

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail

RoboCup 2019 in Sydney – Gruppenphase, erster Tag

Nach unserer Ankunft waren wir zunächst während der Aufbautage damit beschäftigt, unsere Hardware und Software für den Wettbewerb vorzubereiten, weshalb wir noch nicht die Zeit hatten, hier einen Artikel zu veröffentlichen. Heute haben wir dann die harte Arbeit der letzten Tage in den ersten Spielen der diesjährigen Weltmeisterschaft erprobt.

Während der Vorbereitungstage haben wir uns spontan entschlossen, Teile unserer Bilderkennungspipeline durch ein neuronales Netz basierend auf der YOLO-Architektur zu ersetzen, und das mit überraschend erfolgreichem Ergebnis: Wir konnten den Ball quer über das ganze Spielfeld erkennen. Auch die Torpfostenerkennung wurde durch diese Änderungen stark verbessert.

Auch dynamischer sind wir geworden. Wir haben DynUp entwickelt und eine neue Version eines dynamischen Schusses eingebaut, die im Laufe des letzten Semesters von einer Studentengruppe in einem Bachelormodul entwickelt wurde. Dank dieser Module können wir schneller und stabiler aufstehen und den Ball in verschiedene Richtungen schießen, ohne dabei umzufallen.

Schließlich haben wir auch einige Änderungen an unserer Taktik vorgenommen und einige Visualisierungstools verbessert, damit wir während der Spiele einen besseren Überblick darüber bekommen, was unsere Roboter tun.

Heute hatten wir viele Möglichkeiten, unsere Änderungen zu testen: Mit sechs Drop-Ins (Spiele, in denen Roboter aus verschiedenen Teams gemeinsam spielen) und vier regulären Spielen waren wir den ganzen Tag beschäftigt. Zum Glück konnten wir dank unserer Kooperation mit den WF Wolves in allen Spielen Roboter stellen und zusätzlich auch noch unseren Pflichten als Schiedsrichter nachkommen.

Trotzdem lief heute nicht alles perfekt und zwischendurch sah es sogar sehr schlecht für uns aus: Als wir vor ein paar Monaten unsere Kameras ersetzt haben, dachten wir nicht an das zusätzliche Gewicht. Als unsere Roboter während des Spiels fielen, brach daher das Teil, das den Kopf mit dem Torso des Roboters verbindet, da es nicht auf die stärkeren Kräfte beim Fall ausgelegt war. Nach unserem Spiel gegen die ZJLabers waren daher drei unserer vier Roboter kopflos. Es sah düster für uns aus, bis uns eine gute Idee den Wettbewerb rettete. Wir konnten eines der Metallteile aus unserer Schulter, für das wir Ersatzteile dabei hatten, mit kleineren Modifikationen in unseren Nacken einsetzen. Dadurch konnten wir weiterhin mit der neuen Kamera spielen und haben in den weiteren Spielen einige Fortschritte gemacht. Leider konnten wir bisher noch keinen Gewinn verzeichnen, versuchen aber unser Bestes und sind gespannt auf die nächsten Tage.

FacebooktwitterredditpinterestlinkedinmailFacebooktwitterredditpinterestlinkedinmail