Mit schwacher künstlicher Intelligenz starke Projekte umsetzen

Entzaubert man den Hype um „Künstliche Intelligenz“ Schicht für Schicht, ergeben sich schon heute großartige Einsatzmöglichkeiten für die „künstlichen Gehirne“, als Ergebnis schweisstreibender, aber beherrschbarer Programmierarbeit. Die nächste Generation an einsatzfähigen „KI-Tools“ wird Experten erfordern, die die datentechnische Mondlandung beherrschen.

Die heute zu 95% eingesetzte „schwache künstliche Intelligenz“ kann dagegen fast ausnahmslos mit gebräuchlichen Programmiersprachen umgesetzt werden.
Wer alexa oder Siri und Co nutzt oder mit einem freundlichen Chatbot telefoniert, kennt erste Möglichkeiten.

Wobei penible Experten anmerken würden, dass die regelbasierten Antwortmöglichkeiten von alexa keine Intelligenz sind, nicht einmal künstliche: hinter alexa steckt vereinfacht ausgedrückt ein gewaltiges Tabellenwerk mit Antwortmöglichkeiten. Dies merkt man spätestens, wenn die freundliche Stimme aus der Box nicht antworten kann.

alexa und ähnliche Werkzeuge funktionieren nach einem Entscheidungsbaum, der in seiner Komplexität erst in den vergangenen Jahren möglich wurde, weil zuvor Rechner und Datentransfer zu langsam waren. Die Idee für solche „Expertensysteme“ hatten Informatiker bereits vor mehr als 50 Jahren.

Das ist der Unterschied zu den sich abzeichnenden Möglichkeiten: fast alle Anwendungen der „Künstlichen Intelligenz“ funktionieren heute mit einem festgelegten Regelwerk und nicht dadurch, dass eine Software eine eigenständige Entscheidung trifft oder eine frei gestaltete Antwort gibt. Solche regelfreien Werkzeuge gibt es bereits, aber sie sind zur Zeit nur mit hohem Aufwand zu entwickeln und bleiben fehlerhaft: das komplett von einem Chatbot übernommene Bewerbertelefonat mit anschließender Bewertung kommt auf bis zu 20% falsche Einschätzungen („Bewerber ist unsicher/nervös/unerfahren…“).

In betriebswirtschaftlichen Prozessen ist eine solche Fehlertoleranz jenseits aller Vernunft, deswegen werden diese Prozesse noch über Jahre manuell feinjustiert müssen. Dies im Hinterkopf ist der vorsichtige Einstieg in solche komplexen Aufgaben für größere Unternehmen sinnvoll.

Woran kann man merken, ob eine Software noch mit regelbasierter schwacher KI oder mit wesentlich aufwändiger zu entwickelnder starker KI arbeitet?

Ein Beispiel: im Auftrag eines US-Suchportals sollten wir 5 Anbieter für automatische Textgenerierung testen und den Besten herausfinden. Alle Unternehmen – eines aus Großbritannien, eines aus Spanien, zwei aus Deutschland und eines aus Schweden – bekamen einen Datensatz zu einem Fußballspiel der britischen Premium League (bei solchen Spielen werden akribisch alle Ereignisse erfasst und chronologisch festgehalten: jeder Torschuss-Versuch, jeder Einwurf, jede gelbe Karte, jeder Ballkontakt usw.) 

Das Spiel war 0:0 ausgegangen und selbst wenn dies nicht der Fall gewesen wäre, hätte sich am Tabellenstand nichts geändert. Das wussten natürlich auch die Spieler, entsprechend gering war ihr Engagement. Für jeden Fußballreporter also eine richtig langweilige Geschichte.

Was machte jetzt die Textgenerierungssoftware aus diesem Spiel? 4 von 5 „Roboterjournalisten“ schrieben durchaus gute Texte, die mehr oder weniger mit demselben Satz anfingen“ „In einer wenig dramatischen Begegnung ohne große Tormöglichkeiten trennten sich heute ….“.

Dann lieferte die letzte Software einen ganz anderen Einstiegssatz: „In einer wenig dramatischen Begegnung war der Pfostenschuss von XY eines der wenigen Highlights“.

Dies ist der Unterschied zwischen schwacher und starker KI: niemand hätte sich erklären können, warum die Software auf diese Aussage gekommen ist. Dies wurde erst im zweiten Satz klar: „Auch der Vater von XY hatte in derselben Begegnung vor 20 Jahren nur den Pfosten getroffen…

Die Erklärung: diese Software war mit rund 12.000 Fußballberichten auf dieses Thema trainiert worden, sie „wusste“, dass bei einer an sich langweiligen Begegnung auch scheinbare Kleinigkeiten erzählenswert sein können.

Dies funktioniert nicht mehr über Regelwerke, egal wie umfangreich sie sind, hier ist es nötig, dass die Maschine aus vielen Tausend Vorlagen lernt. Nur der Aufwand dafür steht derzeit noch in keinem Verhältnis zum Nutzen.

Wir standen vor 9 Monaten selbst vor der Entscheidung, die Anforderung eines Bankkunden entweder mit schwacher KI – also Entscheidungssysteme plus Datenanalyse plus Textgenerierung – oder per „machine learning“ wie in dem Fußballbeispiel zu erfüllen. Welche Faktoren sollten eine solche Entscheidung beeinflussen?

• Regelwerke werden irgendwann zu komplex. Ein „Antwortbaum“ mit mehr als 10-15 Verästelungen ist kaum noch nachvollziehbar, Fehler sind kaum noch auffindbar
• Regelwerke sind einfach zu konzipieren. Werden fehlende Bedingungen später entdeckt, können diese problemlos eingefügt werden
• Die Zahl von ProgrammiererInnen, die solche Projekte umsetzen können, ist relativ groß
• Eine Personalisierung von Antworten ist im hohen Maße auch mit Regelwerken möglich, erreicht aber nicht die Qualität einer regelfreien Antwort
• Für regelfreie Antworten bedarf es einer sehr großen Menge an trainierbaren Vorlagen. Allein weiß die Software keine einzige Antwort auf eine Kundenanfrage, es gibt keine festgelegten Antwortmöglichkeiten. Das heisst: mit möglichst hohem Trainingsaufwand erhalte ich am meisten fehlerfreie und individuelle Antworten. In diesem Falle wären deutlich mehr als 15-20.000 Beispielanfragen und dieselbe Menge an Antworten nötig gewesen.

Fazit: alexa-Skills, Textanalysen, automatisch generierte Zusammenfassungen und Analysen aus großen Datenmengen, das automatische Erstellen von Bildunterschriften und das Optimieren von Texten – es gibt zahlreiche Möglichkeiten, Künstliche Intelligenz schon jetzt gewinnbringend einzusetzen. Fragen Sie uns einfach:

Wolfgang.Zehrt@digitalkommunizieren.de