In 30 Minuten gelang dem Michael Colborne, was deutsche Behörden in 30 Jahren nicht vermochten. In Jubellaune ist er trotzdem nicht.
wochentaz: Michael Colborne, Sie haben die ehemalige RAF-Terroristin Daniela Klette im vergangenen Herbst offenbar als erster aufgespürt. Jetzt wurde sie festgenommen. Zufall?
Michael Colborn: Das klingt zugegeben schon nach einem sehr großen Zufall. Aber ich habe keine Informationen an die Polizei gegeben. Und ich war auch nicht der einzige, der nach ihr gesucht hat.
Forscher beim Recherchenetzwerk Bellingcat. Er leitet ein Projekt zu Rechtsextremen in Europa.
Es gab in den vergangenen Jahren mehrere Versuche, Klette aufzuspüren. Im November 2023 soll das LKA Niedersachsen nach einem Hinweis aus der Bevölkerung ihre Wohnung in Berlin-Kreuzberg observiert haben. Auch Journalist*innen des Podcasts „Legion“ waren an Klette dran. Die haben Sie dann im Oktober 2023 gebeten, Fotos abzugleichen, die Klette im Jahr 2017 zeigen sollten.
Ich dachte nicht, dass ich etwas finde.
Warum nicht?
Weil die Fahndungsfotos, die es von den drei Gesuchten gab, 30 Jahre alt waren und sie 30 Jahre lang abgetaucht waren. Die künstliche Intelligenz (KI) ist gut, aber sie kann keine Wunder bewirken. Wenn es von Menschen keine Bilder im Netz gibt, dann kann die KI sie auch nicht finden. Deshalb war ich überrascht, als ich die ersten Ergebnisse nach fünf bis zehn Minuten vor mir hatte.
Fünf bis zehn Minuten brauchten Sie, um sie zu finden?
Na ja, für den ganzen Prozess habe ich insgesamt etwa 30 Minuten gebraucht. Also von der Suche nach dem Gesicht von Daniela Klette bis zur Hypothese, dass es sich bei den Fotos einer älteren Frau in einem brasilianischen Kulturzentrum, die ich gefunden hatte, sehr wahrscheinlich um Daniela Klette handelt. Ich bin aber skeptisch geblieben: Die Gesichtserkennungssoftware, mit der ich gearbeitet habe, nutzt einen intransparenten Algorithmus, man weiß nicht, wie die KI funktioniert und auch nicht, woher die Fotos kommen, die in der Datenbank eingespeist sind. Man muss immer vorsichtig mit den Ergebnissen sein.
Dann waren Sie sich aber doch sicher?
Ja, ich habe noch eine zweite KI verwendet. Damit habe ich die Fahndungsfotos mit den Capoeira-Fotos verglichen. Der Software zufolge handelte es sich auf beiden Bildern um dieselbe Person. Ich fand das Ergebnis plausibel. Das habe ich den Podcastern gesagt. Ich habe ihnen empfohlen, der Spur zu folgen.
Haben Sie auch nach den Komplizen von Klette gesucht, Ernst-Volker Staub und Burkhard Garweg?
Ja. Zu Staub habe ich nichts gefunden. Garweg schien auf einigen der Capoeira-Fotos mit Klette zu sehen zu sein. Allerdings habe ich jetzt gerade erfahren, dass der Mann auf den Fotos nicht Garweg war. Genau das zeigt, dass man nie zu 100 Prozent auf diese Tools vertrauen darf und der erste Verdacht falsch sein kann. Dass ich mit Klette tatsächlich richtig lag, weiß ich erst seit der Festnahme vor ein paar Tagen.
Was, wenn Ihre Ergebnisse doch zur Festnahme geführt haben?
Auf der einen Seite spürt man natürlich eine gewisse Genugtuung, wenn sich die eigene Arbeit als richtig herausstellt. Aber es ist auch ein widersprüchliches Gefühl. Schließlich habe ich Technologien eingesetzt, die auch ethische Bedenken mit sich bringen.
Hatten Sie ethische Bedenken, nach Klette zu suchen und möglicherweise die Behörden aufzuschrecken?
Nein. Sie wurde ja schon gesucht, und zwar nicht wegen falscher Anschuldigungen. Aber vielleicht wäre es mir schon lieber gewesen, ich hätte stattdessen ein paar flüchtige Neonazis gefunden.
Klette wurde gesucht, aber ein Haftbefehl bedeutet nicht unbedingt eine aktive Fahndung. Wundert es Sie, dass Sie Klette nach 30 Minuten gefunden haben, während die Polizei sie in 30 Jahren nicht aufgespürt hat?
Eher macht es mir Sorgen. Nicht unbedingt, weil ich mich frage, wie intensiv nach Klette überhaupt gesucht wurde, sondern, wie intensiv die Polizei in Deutschland nach anderen Leuten sucht. Gegen Hunderte Rechtsextremisten in Deutschland liegen Haftbefehle vor. Versuchen die Behörden überhaupt, sie zu finden?
Haben Sie Technologie genutzt, die die Polizei nicht nutzen kann?
Alles, was ich verwendet habe, kann jeder andere auch benutzen. Man muss nur etwa 30 Euro dafür bezahlen.
Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.
Die Fahndungsbehörden in den USA nutzen die umstrittene KI Clearview, um nach Verbrecher*innen zu fahnden. In Deutschland wird sie bisher nicht eingesetzt, das BKA nutzt aber andere Software. Sollte die Polizei stärker auf KI setzen?
Es gibt diese Tools, und wir brauchen eine gesellschaftliche Debatte darüber, ob und wie sie einzusetzen ist. Ich denke nicht, dass Strafverfolgungsbehörden überall Kameras im Stil von „1984“ aufstellen und Gesichtserkennung verwenden sollten. Das wäre furchtbar. Aber ich denke, dass die Polizei sich mit digitalen Techniken vertrauter machen muss. Allein schon, weil es immer mehr Fälschungen durch KI gibt, sogenannte Deepfakes. Es wird immer schwieriger, gefälschte Bilder, Audiodateien und Videos zu erkennen.