Wir haben was gegen Fälschungen!
Künstliche Intelligenz zur Erkennung von Deepfakes und Mimikerkennung.
- Sind Videos und Clips echt oder nicht?
- Sind Interviews oder Reden echt oder nicht?
- Erkennungsrate weit über 90 Prozent
- Spricht eine Person die Wahrheit oder lügt sie?
Videos werden nach mindestens 15 Kriterien durchgemessen. Bis zur Ebene eines einzelnen Bildpunktes (daher auch der Bedarf an Rechenleistung von Hauptprozessor und Grafikkarte). Tondateien werden nach über 40 Kriterien durchgemessen. Bis zu einzelnen Frequenzbereichen.
Wie wir das machen, ist unser Betriebsgeheimnis.
Aber Sie können sicher sein: unsere Systeme lernen selbsständig bei jeder Anwendung. Damit sind auch zukünftige Fälschungen aufspürbar.
Basierend auf einem Open Source AI System haben wir angefangen. Es wurden fortlaufend Verbesserungen vorgenommen. Am Code, an der Leistung, an der Ausgabequalität. Es gab unheimlich viele Versuche mit Prompts, der Ansteuerung des Prozessors, Nutzung des Arbeitsspeichers, Nutzung der Rechenleisung von Grafikkarten und Einiges mehr. Ziel waren zu Beginn alle möglichen Grafiken, die man in sozialen Netzen oder zur Illustration von Webseiten verwenden kann.Wenn man AI Bilder, Grafik und Fotos erzeugt, kann man auch den umgekehrten Weg gehen. Daraus entstanden Systeme zur Analyse auf Deepfakes. Und daraus wiederum entstanden Systeme zur Erkennung von Mikromimik. Letztere verrät, in welcher Stimmung ein Redner ist und man kann so etwas sogar teilweise als Lügendetektor einsetzen.
Die Systeme sind mit Unmengen an Videos und Tondateien trainiert worden, jeweils Hunderte Stunden.
Was wir anders machen als Grok, Chat GPT, Gemini oder andere Onlinesysteme:
Die Software ist hoch spezialisiert und bestens trainiert. Unsere Systeme laufen lokal auf dem Firmencomputer oder bei vertrauenswürdigen, europäischen Providern. Wir haben zudem eigene Trainingsdatenbanken erstellt. Erstmal für Bilder und Grafiken im Online Marketing. Damit sind auch die Ergebnisse nicht kopierbar. Es gab zig Durchläufe, mit denen die AI schon mit ihren eigenen Daten lernen konnte (und oft zwischendurch lustige Fehlversuche). Daraus entstanden Hochleistungsfunktionen, wie man Fälschungen erkennt und Gesichtsmimik auswertet.
LLM im Vergleich zu LoRA. Large Language Modules LLM können viel aber sind erst einmal nicht sonderlich spezialisiert. Low Rank Adoption LoRA, speziell bei Teilaufgaben, liefern schnellere Resulate, bspw. für Stable Diffusion. Man kann nun zwischen LLMs und LoRAs wechseln. Einerseits für Teilaufgaben, andererseits für Finetuning oder größere Aufgaben. Die Cross-Attention-Schichten lassen sich mit LoRAs effizienter ansteuern. Für schnelles Training oder Details spart man oft das Hunderfache und mehr an Rechenleistung. Die Gesamtentwickung der AI Resultate wird flotter oder / und genauer. Als kommerzielle Systeme nutzen wir, zusätzlich zu den Eigenentwicklungen, gängige Plattformen.
Die Systemanforderungen sind übrigens: i7, besser i9 der neueren Generationen, i7 und i9 Ultra oder Ryzen 9. Mindestens 32 GB Arbeitsspeicher. Mindestens RTX 3080 Grafikkarte, besser RTX 4070, RTX 4080, RTX 5er Serie ab 5070 oder höher. Und natürlich eine SSD als Festplatte. Prinzipiell läuft die Software auch auf kleineren Systemen, dann wird es aber wirklich langsam.