Unter „intelligent“ und damit KI (oder englisch „AI“ für artifical intelligence) versteht man vor allem selbstlernende Systeme. Während man früher etwa fest einprogrammieren musste, wie ein Programm zum Beispiel Gesichter erkennt, ist Software heute so flexibel, dass sie sich das selbst erarbeitet. Als Basistechnologie werden dazu sogenannte „Neuronale Netze“ verwendet. Vereinfacht gesagt erkennen neuronale Netze in einem Lernprozess – ähnlich wie der Mensch – anhand von Versuch und Irrtum, welche Operationen sie ausführen müssen, um zum gewünschten Ergebnis zu kommen. Werden mehrere Schichten von neuronalen Netzen in Kombination eingesetzt, verbessern sich die Ergebnisse deutlich. Man spricht dann vom „deep learning“.
Damit neuronale Netze zum gewünschten Ergebnis kommen, hilft Feedback über die Richtigkeit ihrer Zwischenergebnisse sowie eine große Menge an Daten. Idealerweise werden neuronale Netze zum Start daher mit bereits von Menschen bewerteten Daten gefüttert, z.B. manuell verschlagwortete Bilder. Je mehr sie davon haben, desto einfacher und besser können sie Muster erkennen und desto zuverlässiger werden die Endergebnisse. Und das Beste: Im Lauf der Zeit werden sie immer besser, denn sie lernen ständig dazu.
In der Praxis: Vielfältige Einsatzmöglichkeiten
Der deutsche Stockfotografie-Anbieter EyeEm hat sich z.B. seinen großen Datenbestand zu Nutze gemacht und eine Anwendung auf Basis künstlicher Intelligenz entwickelt, die automatisch Schlagworte für Aufnahmen vorschlägt. Mittlerweile ist die automatische Erkennung von Szenen bei den großen KI-Anbietern im Bildverarbeitungsbereich Google, Apple und Microsoft Standard. So können zielsicher zum Beispiel nur Aufnahmen von einem Business-Meeting ebenso in einem großen Bildbestand gefunden werden wie solche einer Strandparty – ganz ohne, dass Menschen sie vorher katalogisieren müssen. Ein wesentlicher Bereich von KI-Technologien ist die Gesichts-Wiedererkennung. Bildverwaltungsprogramme können so auf Basis der bereits eingelesenen Fotos automatisch zusammengestellte Sammlungen mit Aufnahmen bestimmter Personen anbieten. Microsoft geht sogar so weit, dass man versucht, Emotionen automatisch zu erkennen.Für die Endanwender bedeutet all dies ein Plus an Komfort: Zeitintensive, eher langweilige Aufgaben wie das Verschlagworten werden ihnen abgenommen und sie können schneller mehr aus ihren Bildern machen. Die Einsatzmöglichkeiten gehen aber weit über den heimischen Computer und die eigenen Erinnerungsfotos hinaus. So werden etwa Supermärkte möglich, die komplette Selbstbedienung ganz ohne Kasse erlauben, weil sie erkennen, wo der Besucher gerade ist und was er in den Warenkorb gelegt hat. Auch für Service-Roboter, die zum Beispiel in der Pflege unterstützen könnten, sind solche Technologien wichtig, denn sie sollen den richtigen Patienten selbständig erkennen und anhand der Mimik ablesen können, ob er zufrieden ist. www.piv-imaging.com