Das Grundprinzip ist einfach

Der renommierte Informatiker und Turing Prize Gewinner Judea Pearl hat einmal mit dem etwas überspitzt formulierten Zitat:

“Machine Learning is just glorified ‘curve fitting’ ”

versucht auszudrücken, dass die Mechanismen hinter dem Bereich Machine Learning in der Künstlichen Intelligenz, von dem Deep Learning ein Teilbereich ist, sehr einfach sind, aber üblicherweise glorifiziert werden. Er unterstreicht damit, dass hinter den gängigen Techniken vieler Deep Learning Anwendungen – zum Beispiel bei der Bilderkennung oder Sprachverarbeitung – dieselben Prinzipien wie bei der einfachen Aufgabe, eine Kurve durch eine gegebene Menge von Datenpunkten zu legen, steckten. Schon an dieser sehr einfachen Karikatur von Machine Learning Lösungen lassen sich aber nicht nur deren Grundprinzipien erkennen, sondern auch typische Gefahren im Umgang mit dieser Technologie diskutieren und erkennen.

In meinem Artikel unter https://towardsdatascience.com/watching-machine-learning-models-fitting-a-curve-c594fec4bbdb habe ich versucht dies mit Hilfe von Bildern und Animationen zu verdeutlichen.

Gefahr der Überanpassung

Die wichtigste Gefahr, die auch hier versucht wird aufzuzeigen, ist das sogenannte “Overfitting”, das man am besten mit Überanpassung übersetzen würde. Hier sieht eine KI-Anwendung in den Daten, die zur Erstellung des Modells verwendet werden, mehr Muster und Strukturen, als eigentlich in den Daten enthalten sind.  Dadurch entstehen dann Systeme, die schlecht generalisieren, d.h. neue Situationen schlecht erklären und falsche Entscheidungen treffen.

Zu viele Muster zu sehen ist nicht nur eine Eigenschaft von KI-Systemen, sondern auch eine sehr menschliche Schwäche. Unser Wahrnehmungsapparat, der zum Beispiel darauf trainiert ist, Gesichter zu erkennen, gaukelt uns auch in vielen anderen Objekten vor ein Gesicht zu sehen. Das bekannteste Beispiel ist der  sogenannte “Mann im Mond” (https://de.wikipedia.org/wiki/Mann_im_Mond),  aber auch sonst gibt es viele solcher Beispiele – etwa in folgendem Bild, das uns im Hamburger ein Gesicht erkennen lässt.

Was grenzt Deep Learning von anderen Machine Learning Techniken ab?

Die beschriebenen Prinzipien und Gefahren gelten für Machine Learning im Allgemeinen, aber besonders für das Teilgebiet Deep Learning, da hier sehr umfangreiche Modelle eingesetzt werden, die zwar einerseits komplexere Aufgaben lösen können, aber auch mehr zur Überanpassung neigen. Das “Deep” im Namen leitet sich dabei von der Tiefe der Modelle in dem Sinne ab, dass die hier üblicherweise verwendeten Neuronalen Netze (https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz) aus vielen Schichten bestehen, also in diesem Sinne tief sind.

Fazit

Deep Learning ist zwar nicht erst in den letzten Jahren entstanden, aber durch die Erfolge, die auf dieser Technik basierende Anwendungen in den letzten Jahren erzielt haben, ist es in unseren Alltag eingedrungen – dies einerseits als Technologie, die beispielsweise unser Handy durch Gesichtserkennung entsperrt, aber auch als “Buzzword”, das zahlreiche Produkte, teils zu recht und teils zu unrecht, ziert.

Ein Beispiel

Ein typisches Beispiel, das zeigt, was möglich ist, ist ein Video einer Obama-Rede, die dieser nie wirklich gehalten hat.

Quelle: https://ars.electronica.art/center/de/obama-deep-fake/

Gerade wurde mit www.nuis.tv ein neuer Dienst angekündigt, der Newstexte automatisch mit KI-Unterstützung in Videobeiträge konvertiert. Dies soll dazu dienen, dass User auf einem Smartphone aktuelle Nachrichtenbeiträge nicht mehr lesen müssen, sondern sich diese von einem Nachrichtensprecher präsentieren lassen können.

Um derartiges umsetzen zu können, ist es nicht nur nötig Bilder von Personen künstlich zu erzeugen, sondern auch, diese die Nachrichten vorlesen zu lassen. Die dafür nötigen Technologien zur Verwandlung von Text in Sprache und Lippensynchronisation existieren bereits.

In diesem Blogbeitrag möchte ich zeigen, wie solche digitalen Inhalte erzeugt werden können. Dabei kommen neueste Arbeiten aus der Forschung der Künstlichen Intelligenz  zum Einsatz.

Schritt 1) Bild- oder Videomaterial auswählen oder künstlich erzeugen

Für diesen Schritt kann ein Foto oder Video einer Person ausgewählt oder auch künstlich geschaffen werden, die die Aussage tätigen soll. Die Website https://thispersondoesnotexist.com/ erzeugt Fotos von Personen, die nie existiert haben und vermutlich auch nie existieren werden.

(Fake Bild erzeugt mit StyleGAN2. Quelle: www.thispersondoesnotexist.com)

Die Methoden dahinter sind in einer wissenschaftlichen Arbeit (https://arxiv.org/abs/1912.04958) veröffentlicht, und in einem Video (https://www.youtube.com/watch?v=SWoravHhsUU) beschrieben.

Schritt 2) Text der Nachricht schreiben oder generieren lassen

Kommen wir nun zum Erzeugen von Textnachrichten. Die Website https://bellard.org/textsynth/ bietet eine Implementierung des “GPT2 Sprachmodells” von OpenAI (https://openai.com/blog/better-language-models/).  Dieses kann genutzt werden, um ausgehend von einem Stück Text diesen weiter fortzusetzen.

Ein Beispiel:

Der folgende Satz aus der New York Times wurde als Start vorgegeben.

“But despite the large drop in new infections since early this year, the U.S. death rate remains at nearly 1,500 people every day.”

Die Story wurde wie folgt fortgesetzt:

“The CDC estimates that 1.6 million Americans die annually from infections linked to SARS. The virus causes fever, respiratory illness, weakness and confusion. It can cause diarrhea, kidney and liver failure and is believed to have caused more than 300,000 deaths worldwide. The Ebola outbreak is the most severe since the devastating 1976 SARS outbreak that killed at least 15,000 people.”

Die Story liest sich wie ein echter Newsbeitrag, jedoch entsprechen die Fakten nicht der Realität. Dies zeigt, dass Fact-Checking Techniken  immer bedeutender werden. Nur weil etwas echt klingt, bedeutet das nicht, dass der Inhalt echt bzw. korrekt ist.

“Ich hab es mit eigenen Augen gesehen” kann in der heutigen digitalen Zeit kaum mehr als stichhaltiges Argument gelten.

Andreas Stöckl

HEAD OF CUSTOMER DATA MANAGEMENT

Schritt 3) Erzeugung der Audioaufnahme aus dem Text

Möchte man den Text nun von der Person gesprochen haben, benötigt man eine Tondatei mit der Rede – aber nicht nur mit irgendeiner Stimme gesprochen, sondern mit der Stimme der gewünschten Person. Dies leistet das  NVIDIA’s Flowtron Model (https://github.com/NVIDIA/flowtron). Es generiert gesprochene Texte, die kaum von echten zu unterscheiden sind. Hier kann die Stimme des Sprechers durch ein Muster vorgegeben werden.

Schritt 4) Erzeugung des lippensynchronen Videos

Mit Wav2Lip (https://github.com/Rudrabha/Wav2Lip) kann schließlich auch das Problem der Lippensynchronisation gelöst werden. Die Software generiert realistische, sprechende Gesichter für jede menschliche Sprach- und Gesichtsidentität.

Das Video https://www.youtube.com/watch?v=0fXaDCZNOJc zeigt die Resultate des Verfahrens.

Fazit

Kombiniert man nun all diese Technologien, so erhält man ein System, das nicht nur einen Text nach Vorgaben erfindet, sondern diesen auch von einer beliebigen Person (real oder erfunden) als Video aufsagen lässt. Das zeigt, dass man sich nicht mehr sicher sein kann, ob ein Video, das man auf Social Media gesehen hat und in dem eine Person eine Aussage tätigt, nicht vollständig erfunden ist.

Die Daten

Zur Analyse habe ich im Zeitraum von 4.11.2020 bis 2.2.2021 in Summe 148.991 in der österreichischen Presse online publizierte Artikel gesammelt und ausgewertet.

Es wurden Artikel folgender Medien berücksichtigt:

  • ORF – http://orf.at 
  • Tiroler Tageszeitung – http://tt.com 
  • Oberösterreichische Nachrichten – http://nachrichten.at 
  • Niederösterreichische Nachrichten – http://noen.at 
  • Vorarlberg Online – http://vol.at 
  • Österreich – http://oe24.at 
  • Salzburger Nachrichten – http://salzburg.com 
  • Kurier – http://kurier.at 
  • Die Presse – http://diepresse.com 
  • Kronen Zeitung – http://krone.at 
  • Der Standard – http://derstandard.at
  • Heute – http://heute.at 
  • Neues Volksblatt – https://volksblatt.at 
  • Wiener Zeitung – http://wienerzeitung.at

Das ergibt ein fast vollständiges Abbild der österreichischen Medienlandschaft bezüglich täglicher Nachrichten. (Daten der Kleinen Zeitung – http://kleinezeitung.at ) lagen mir leider nicht vor.)


Die Analyse

Von jedem Artikel wurde der Titel, der publizierte Text und der Publisher gemeinsam mit dem Veröffentlichungsdatum gespeichert. Die Anzahl der Artikel in meinem Datensatz verteilt sich folgendermaßen über die Publisher:

In den Beiträgen wurde nach bestimmten Schlagworten gesucht, die mit der Pandemie-Berichterstattung in Zusammenhang stehen. So zum Beispiel die Begriffe „COVID“, „Corona“, aber auch „Kurzarbeit“, „Lockdown“ und „Mutation“. Die Beiträge wurden auch einer computergestützten Sentiment-Analyse (https://de.wikipedia.org/wiki/Sentiment_Detection) unterzogen und vermerkt, ob es ein positiver, neutraler oder negativer Bericht war.

Zu welchem Prozentsatz kommen in den Artikeln die Wörter „Corona“ oder „COVID“ vor?

Betrachtet man den Anteil der Artikel mit mindestens einem der beiden Schlagwörter im Text, jeweils tageweise zusammengefasst und über die Zeitachse aufgetragen, ergibt sich folgendes Bild, wenn man über alle Medien hinweg zusammenfasst:

Im gesamten Zeitraum sind also ca. 30–40 % der Berichte zu diesem Thema. Das bestätigt den Eindruck, dass „nur noch“ über die Pandemie berichtet wird, zwar nicht wörtlich, es ist aber doch ein sehr großer Anteil – und das über den gesamten betrachteten Zeitraum von 3 Monaten fast konstant.


Wie sieht es mit Unterschieden bezüglich Medien aus?

Hier sind schon deutliche Unterschiede zu sehen, so liegt oe24.at fast bei 50 % und das Volksblatt sogar deutlich darüber, Krone und Kurier liegen nur auf 30 % oder darunter.

„Die Pandemie ist zwar nicht das einzige Thema in der Medienberichterstattung, aber mit einem Anteil von 30–40 % am gesamten Medienvolumen doch sehr dominant.“

Prof. (FH) Dr. Andreas Stöckl

HEAD OF CUSTOMER DATA MANAGEMENT

Wie sieht es mit der Präsenz des Themas „Mutationen“ aus?

Dazu betrachten wir die absolute Anzahl der Artikel mit dem Wort „Mutation“ im Text, über die Zeit aufgetragen.

Dieses Thema taucht schlagartig kurz vor Weihnachten in der Berichterstattung auf, nimmt dann für einige Zeit wieder deutlich ab. Ab Mitte Januar nimmt es wieder Fahrt auf – und begleitet uns seither. Betrachtet man die Nennungen in Regionalzeitungen getrennt, so ergibt sich ein differenzierteres Bild.

Zu Weihnachten ist das Thema in den westlichen Zeitungen Tiroler Tageszeitung und Salzburger Nachrichten schon sehr präsent. In Oberösterreich (Nachrichten.at) erst ab Mitte Januar. Hier zeigt sich also ein „West-Ost-Gefälle“.


Wie sieht es mit dem Thema „Lockdown“ aus?

Nachfolgende Abbildung zeigt die absolute Anzahl der Artikel, in denen das Wort „Lockdown“ vorkommt, aufgetrennt nach Quelle.

Es zeigt sich, dass am Tag des ersten Lockdowns auch ein klarer „Peak“ in der Berichterstattung zu sehen ist. Der Lockdown, beginnend nach den Weihnachtsfeiertagen, zeigt keinen deutlichen Ausschlag. Generell ist das Thema aber den ganzen Zeitraum mit einem gewissen Wochenzyklus über präsent. Einen starken Beitrag zu den Peaks liefert jeweils oe24.at (Gelb).


Wie sieht es mit der Tonalität („Sentiment“) der Artikel aus?

Im Themengebiet einer Pandemie erwartet man durchwegs eher negative Berichte. Sehen wir uns das Ganze in Zahlen an und fächern den zeitlichen Verlauf auch nach unterschiedlichen Begriffen auf.

Die Grafik gibt den zeitlichen Verlauf, der Anzahl der Artikel, welche die jeweils angegebenen Begriffe enthalten, aufgesplittet nach Tonalität an. Es fällt die verständlicherweise geringe Anzahl an positiven Artikeln zu diesen Themen auf. Insbesondere die Beiträge zu „Mutationen“ und „Lockdown“ haben überwiegend ein negatives Sentiment. Die beiden anderen Begriffe haben zumindest einen Anteil an neutralen Berichten in fast ähnlicher Höhe wie die negativen News.

Quellen: Bilder vom Autor selbst erstellt.

Fazit

Die Analyse drückt durch konkrete Zahlen das aus, was wir beim täglichen Konsum von Nachrichten empfinden, ein sehr erheblicher Teil beschäftigt sich mit der Pandemie – und das überwiegend mit negativer Tonalität. Wir konnten aber auch einige Unterschiede in den Quellen, Themengebieten und Zeiträumen sehen.

Die benötigten Daten sammeln

Um Aussagen über das Kaufverhalten eines Website-Besuchers tätigen zu können, benötigen wir möglichst aussagekräftige Daten über ihn. Wie soll das aber bei einem anonymen Surfer funktionieren?

Um Personen über mehrere Besuche hinweg identifizieren zu können, können diese mittels Cookie markiert werden. Das ist aber datenschutzkonform nur möglich, wenn das Einverständnis des Nutzers zum Beispiel mit einem Pop-up-Layer eingeholt wird. Um diese Abfrage und die Verwaltung der Einverständniserklärungen zu managen, bietet sich eine Consent-Management-Lösung an: https://de.wikipedia.org/wiki/Consent_Management_Platform. Hat man das Einverständnis, kann man das Verhalten der Personen auch über mehrere Besuche zu unterschiedlichen Zeitpunkten hinweg sammeln.

Um nun das Verhalten der Besucher analysieren zu können, kommt Web-Analytics-Software zum Einsatz, die genau aufzeichnet, welche Produkte angesehen wurden, welche Buttons angeklickt wurden, ob etwas in den Warenkorb gelegt wurde, und vieles mehr. Hier setzen viele Shop-Betreiber „Google Analytics“ ein, das umfangreiche Statistiken zum Surfverhalten anzeigt. Das Produkt in der Gratisversion hat aber einen entscheidenden Nachteil: Es werden zwar schöne Statistiken angezeigt, die zugrundeliegenden Rohdaten behält Google aber für sich. Für die Analysen benötigen wir diese aber!

Abseits der Google-Lösung gibt es aber eine Vielzahl von Softwarelösungen, die es ermöglichen, das Verhalten der Besucher aufzuzeichnen sowie gesammelt und strukturiert abzuspeichern. Mehr Information dazu finden Sie auf https://www.506.ai/leistungen/customer-data-management.

„Die korrekte Identifizierung potenzieller Online-Käufer auf Grundlage Ihres Verhaltens im Online-Shop kann helfen, die Streuverluste von Online-Werbekampagnen zu reduzieren!“

PROF. (FH) DR. ANDREAS STÖCKL

HEAD OF CUSTOMER DATA MANAGEMENT

Klassifikationsmodell erstellen

Es können nun verschiedene Methoden des maschinellen Lernens verwendet werden, um anhand der Daten des Online-Shops die Kunden als kaufende und nicht kaufende zu klassifizieren. Mit aus den Rohdaten aggregierten Merkmalen, wie z. B. Anzahl der Besuche, Anzahl der Seitenaufrufe, Anteil von Besuchen in bestimmten Produktkategorien etc., werden Prognosemodelle trainiert und evaluiert.

Es gibt verschiedene Verfahren, um dieses Problem zu lösen. Es hat sich in der Praxis gezeigt, dass es nicht „das eine“ Verfahren gibt, das besser als alle anderen ist, sondern dass es von der Problemstellung und den Daten abhängt, was am besten funktioniert. Man versucht daher stets verschiedene Ansätze und wählt dann nach einer Evaluierung jenen aus, der die besten Resultate liefert.

Die Details zu den möglichen Verfahren und der Umsetzung finden sich in meinem Beitrag auf:

https://towardsdatascience.com/classifying-online-shop-customers-65438e0cc58b

Die folgende Grafik zeigt eine Visualisierung eines erstellten Modells auf Basis von Besuchen und Seitenansichten. Die verschiedenfarbigen Flächen kennzeichnen dabei die Bereiche der Käufer und der Nichtkäufer. Kennt man von einem Besucher die Anzahl der Besuche und die Anzahl der Seitenansichten, dann kann man den zugehörigen Datenpunkt im Diagramm eintragen, und je nach Bereich wird er den potenziellen Käufern zugeordnet oder nicht. Dies ist ein sehr vereinfachtes Modell, das sich gut zur grafischen Darstellung eignet, in der Praxis werden mehr Merkmale zur Modellbildung verwendet.

Quelle: Vom Autor erstellt

Fazit

In meiner Praxis hat sich gezeigt, dass Klassifikationsgenauigkeiten von um die 80 % realistisch sind und zu durchaus brauchbaren Vorhersagen führen. Damit kann zum Beispiel eine Retargeting-Kampagne gestartet werden, die sich auf die Gruppe der potenziellen Käufer konzentriert und damit zu Kosteneinsparungen beim Online-Werbebudget führt.

Bild Quelle: (Quelle: www.pexels.com – kostenlose Nutzung [CC0])

Dabei handelt es sich nicht um geheime versteckte Botschaften, die in einzelnen Nachrichten eingebettet sind, so wie manche Personen geheime Botschaften in Songs der „Beatles“ zu finden glauben, sondern um Informationen, die erst dann ersichtlich sind, wenn man eine Vielzahl von Daten gemeinsam und richtig kombiniert betrachtet. In diesem Beitrag möchte ich das anhand einiger Beispiele aufzeigen.

Ich werde im Beitrag zum Beispiel Hinweise finden, dass Redakteure der Tageszeitung Der Standard am Wochenende gerne länger schlafen und längere Beiträge am Morgen oder am Wochenende vormittags schreiben. Den restlichen Tag scheinen Agenturmeldungen zu dominieren.

Vor allem die Kronen Zeitung, aber auch das Portal „oe24.at“ publizieren, nicht unerwartet, kaum längere Artikel – dass es hier im Unterschied zu Der Standard um das Zehnfache geht, ist doch etwas überraschend.

Aus den Publikationen namentlich genannter Redakteure lassen sich Informationen gewinnen, wie ihr Urlaubsverhalten ist oder welchen anderen Redakteuren sie möglicherweise nahestehen.

Die Daten

Als Daten für die Beispiele habe ich die Nachrichtenartikel der Onlineausgabe von drei österreichischen Tageszeitungen ausgewählt:

Die beiden ersten sind dabei dem Boulevard zuzuordnen, Letztere wird als Qualitätszeitung bezeichnet.

Ich habe jeweils über einen Zeitraum von 3 Monaten (11. 8. 2020–9. 11. 2020) die Texte der Nachrichten, gemeinsam mit einigen Metadaten wie Veröffentlichungszeitpunkt, Autor etc., gesammelt. Das ergab ein Datenvolumen von:

Erster Überblick über die Daten

Um einen ersten Überblick über die Daten zu erhalten, betrachten wir die Anzahl an Artikeln, welche die unterschiedlichen Zeitungen an den einzelnen Tagen veröffentlicht haben.

Alle drei betrachteten Zeitungen weisen einen Wochenzyklus auf, der bei Der Standard am ausgeprägtesten ist, an den Wochenenden und Feiertagen wird deutlich weniger publiziert. Es werden im Schnitt etwas über 100 Artikel geschrieben. Auf „oe24.at“ seit Anfang Oktober deutlich mehr.

Wann werden Artikel geschrieben, und wie lang sind diese?

Betrachten wir nun die Tageszeit und den Wochentag, zu denen die Nachrichten veröffentlicht wurden. Die Größe der Punkte beschreibt dabei die Anzahl der Artikel. Der Farbcode gibt zusätzlich die durchschnittliche Textlänge (Anzahl der Worte) pro Zeitpunkt an. Blaue Kreise stehen für kurze Artikel, je dunkler der Rotton ist, desto länger sind die Artikel.

Publiziert wird überwiegend am Tag, und am Wochenende wird etwas später begonnen. Hier scheinen die Redakteure etwas länger schlafen zu wollen. Generell wird am Wochenende weniger veröffentlicht.

An der Einfärbung kann man sehen, dass sich die Redaktion von  Der Standard offenbar am Morgen jeden Tages und am Wochenende Zeit nimmt, lange Artikel zu schreiben, wie man das von einem „Qualitätsmedium“ erwartet.

Werden später am Tag hauptsächlich kurze Agenturmeldungen verbreitet?

Die nächste Abbildung zeigt ein etwas anderes Bild für die Redaktion von „Österreich – oe24.at“, hier gibt es nur eine geringe Anzahl längerer Artikel um 6 Uhr morgens, kurz vor Mitternacht und Freitagmittag.

Welche Arten von Artikeln sind dies?

Auch hier wird wochentags mehr publiziert.

Bei der Kronen Zeitung sind bezüglich der Artikellänge keine ausgeprägten Tendenzen zu sehen, die Publikationsmenge verteilt sich ab 6 Uhr morgens über den ganzen Tag. Längere Artikel werden hier praktisch nicht fabriziert. Eine Analyse der generellen Artikellänge in Zusammenhang mit Themen in den unterschiedlichen Zeitungen betrachten wir im nachfolgenden Beitrag.

Es ist auch wenig Unterschied zwischen Wochenende und normalen Wochentagen festzustellen.

Zu welchen Themen wird publiziert?

Ich möchte aber nicht nur wissen, wann und mit welcher Textlänge publiziert wird, sondern auch über welche Themen. Dazu habe ich die einzelnen Artikel einer automatischen Themenzuordnung unterzogen.

Die Analyse wurde mit der „News Intelligence Platform“ von „AYLIEN“ (https://aylien.com/) durchgeführt und als Kategorisierung „IAB“ (https://developers.mopub.com/publishers/ui/iab-category-blocking/) verwendet. Diese Kategorisierung wurde entwickelt, um Online-Werbeanzeigen die richtigen Inhalte zuordnen zu können.

In meinem Beispiel kamen nur die Hauptkategorien zum Einsatz.

Betrachten wir nun, wie viele Artikel in den wichtigsten Kategorien von den drei Nachrichtenproduzenten veröffentlicht wurden. Die Größe der Kreise spiegelt dabei die Gesamtzahl im betrachteten Zeitraum wider.

In allen drei Zeitungen ist „Law, Gov’t & Politics“ das klar dominierende Thema. Beim „Standard“ und „oe24.at“ gefolgt vom Bereich „Sport“. Überraschenderweise spielt dieser Bereich bei der „Krone“ keine so große Rolle. Dafür gibt es hier einen ausgeprägten Bereich „Home and Garden“.

Grafik von “DerStandard”

Nun sehen wir uns noch an, ob es Unterschiede gibt, wann die Artikel zu den verschiedenen Themen publiziert werden. Nachfolgende Grafik zeigt für Der Standard die Verteilung der Veröffentlichungen über die Zeit für die beiden häufigsten Kategorien „Politik“ und „Sport“.

Die Artikelanzahl für den Bereich Sport steigt am Morgen deutlich langsamer an als für Politik. Liegt das daran, dass über Sport morgens noch nicht zu viel zu berichten ist, oder daran, dass Sportredakteure gerne länger schlafen?

Die Daten für die Artikel von Krone und „oe24.at“ zeigen dasselbe Bild.

Ordnet man die einzelnen Artikel auch einer „Themenlandkarte“ zu, so ergibt sich ein Bild, wie sich die verschiedenen Artikel verteilen. Nachfolgende Grafik zeigt die Verteilung der Artikel und der wichtigsten Kategorien für Der Standard .

Nahe beieinander liegende Punkte stehen dabei für Artikel, die ähnlich sind, und die Farben geben die Themen wieder.

Für diese Abbildung wurde für den Titel jedes Artikels ein „Sentence Embedding“ (https://github.com/UKPLab/sentence-transformers) berechnet, das die Bedeutung des Titels kodiert. Mehr hierzu im Artikel:

https://medium.com/towards-artificial-intelligence/sentence-embeddings-with-sentence-transformers-library-7420fc6e3815

Anschließend wurde mit dem Verfahren „t-SNE“ ein dimensionsreduzierter 2D-Plot erzeugt. Mehr dazu im Artikel:

https://towardsdatascience.com/an-introduction-to-t-sne-with-python-example-5a3a293108d1

Wie sieht es mit der Länge der Artikel zu den Themen in den unterschiedlichen Medien aus?

Die durchschnittliche Textlänge bei der Kronen Zeitung unterscheidet sich von Thema zu Thema kaum und ist auch deutlich kürzer als bei Der Standard. Bei „oe24.at“ ist das Bild ähnlich mit der Ausnahme, dass die Artikel generell etwas länger sind und es für den Bereich „Automotive“ längere Beiträge gibt.

Die durchschnittliche Textlänge bei  Der Standard liegt beim Zehnfachen im Vergleich mit der  Kronen Zeitung. Da bestätigen die Daten das Vorurteil, dass Boulevardzeitungen kaum Text liefern. Der Standard weist auch signifikante Unterschiede in der Länge zwischen den Themengebieten auf. News-Beiträge sind zum Beispiel deutlich kürzer als der Rest.

Können wir etwas über einzelne Personen oder Redaktionsteile aussagen?

Manche Zeitungen kennzeichnen die Artikel mit den Namen der Redakteure oder mit Teilen der Redaktion. So lassen sich bei der Kronen Zeitung die Artikel den einzelnen Bundesländer-Redaktionen zuordnen – damit wird deutlich, wie aktiv die einzelnen Redaktionen sind.

Man sieht, dass über den gesamten betrachteten Zeitraum die Wiener Zentralredaktion am aktivsten ist und Bundesländer wie „Burgenland“ und „Vorarlberg“ nur wenig beitragen.

Wertet man Artikel aus, die den Namen des Autors aufweisen, so lassen sich personenbezogene Aussagen treffen. In der nachfolgenden Abbildung sind daher die Namen unkenntlich gemacht.

Der Auswertung können einige interessante Informationen entnommen werden, so erkennt man festangestellte Redakteure und freie Mitarbeiter leicht an der Anzahl ihrer Beiträge. Über den Farbcode können die Personen thematischen Bereichen zugeordnet werden, und Lücken in den Veröffentlichungen können auf Urlaube hindeuten. So können auch Indizien für gemeinsame Urlaube in der Redaktion aus solchen Grafiken gesammelt werden. Deuten diese auf eine nähere persönliche Beziehung der Personen hin?

Fazit

Fragestellungen und Informationen, wie die zuletzt genannten, deuten auf die Gefahr der Auswertungen hin. Dabei wurden ausschließlich öffentliche, frei verfügbare Daten verwendet. Die Brisanz entsteht erst durch die Aggregation und Verknüpfung vieler Daten zusammen mit der geeigneten Visualisierung. Der Mensch ist dann auf dieser Basis dank seiner großen Fähigkeiten zur Mustererkennung in der Lage, Schlüsse zu ziehen.

Ein Mitbewerber kann zum Beispiel die Themengebiete von Redakteuren identifizieren, um diese abzuwerben. Ein Vorgesetzter kann private Verbindungen von Mitarbeitern ausspähen – und vieles mehr …

Wir setzen Sie zum Beispiel dazu ein, eine Segmentierung der Kundendaten in einem Online Shop durchzuführen, oder eine Performance Marketing Kampagne zu optimieren.
Dazu ist üblicherweise der Einsatz einer Programmiersprache mit einer Vielzahl von Programmbibliotheken für die gewählte Sprache nötig. Sehr häufig werden hier heute “Python” oder “R” verwendet, und Bibliotheken wie “Scikit Learn” und “Tensorflow“.

Es geht aber auch anders!

Einen anderen Weg versucht die Plattform “BigML” zu gehen, indem sie ein User Interface bietet, das ermöglicht alle Schritte eines “Machine Learning” Projektes über Menüs zu steuern.

In Österreich wird das Produkt von “A1 digital” als Cloud-Lösung angeboten: https://machinelearning.a1.digital/

Der Workflow beginnt mit dem Import der Daten aus den unterschiedlichsten Quellen, und bietet auch einen schnellen Überblick über die Datentypen, Korrelationen und statistischen Verteilungen der Merkmale und Zielvariablen.

Nachdem Vorverarbeitungsschritte, wie die Behandlung von fehlenden Daten, durchgeführt wurden, und die Daten in Trainings- und Testdaten geteilt wurden, können mit den verschiedenen Modellklassen Modelle berechnet werden. Hier bietet “BigML” für “Supervised Learning” die gängigsten Verfahren für Regressions- und Klassifikationsaufgaben an, wie zum Beispiel Entscheidungsbäume oder “Random Forests”, lineare Regression oder “Logistic Regression” und Neuronale Netze.

„Die Plattform bietet eine Möglichkeit Machine Learning Modelle zu entwickeln ohne Programmcodes schreiben zu müssen. Gute Kenntnisse im Bereich Machine Learning ersetzt es jedoch nicht.“

ANDREAS STÖCKL

HEAD OF CUSTOMER DATA MANAGEMENT

Die gängigsten Verfahren können mit dem System durchgeführt werden

Auch diverse Methoden für “Unsupervised Learning”, wie zum Beispiel “Clusteranalyse”, Anomalie-Erkennung und Hauptkomponenten-Zerlegung befinden sich im “Werkzeugkasten” von BigML.

Mit den erstellten Modellen können dann Vorhersagen getätigt werden, und es kann die Qualität der Modelle mit Testdaten bestimmt werden. Hat man ein zufriedenstellendes Modell zusammengebaut, dann kann es in Form von Programmcodes für unterschiedliche Programmiersprachen heruntergeladen, und zum Beispiel in Software-Lösungen integriert werden.

Um auch mit wenig Vorwissen gut durch den Workflow zu kommen, ohne eine Vielzahl an Parametern einstellen zu müssen, werden an vielen Stellen in der Programmoberfläche “1-Click” Assistenten angeboten.

Fazit

Die Plattform bietet eine Vielzahl an Methoden, die sehr bequem und Zeitsparend eingesetzt werden können. Ohne entsprechend gutem Vorwissen im Bereich “Machine Learning”, wird man aber auch hier zu keinen guten Resultaten kommen. Einen großen Vorteil der Plattform sehe ich darin, dass man gut strukturiert durch den Prozess geführt wird, und viele Visualisierungen die Interaktion mit der Software und das Verständnis der Daten erleichtern.

Quelle: Eine kurze Einführung findet sich zum Beispiel unter: https://www.youtube.com/watch?v=w0jRGVwDHn4

Ein erster Ansatz ist auf Grund von gewissen Merkmalen Kundengruppen einfach fest zu legen, beispielsweise nach Region oder bisheriger Höhe der Einkäufe. Ein besserer und zukunftsträchtiger Ansatz ist, die Kundengruppen aus den Daten zu “lernen”. Dazu benötigt man eine möglichst umfassende Sammlung aller Daten, die von den Kunden vorliegen. Zur Umsetzung verwendet man eine “Customer Data Platform”, wie zum Beispiel unser Produkt.

Sammeln der richtigen Daten

Basis für Personalisierung ist, dass die Kunden und Besucher des Onlineshops in zusammengehörige Gruppen unterteilt werden. Die Daten für die Bestimmungen dieser Gruppen werden mit Softwarelösungen “gesammelt”, die für jeden Besucher aufzeichnen: welche Seiten er betrachtet hat, welche Buttons er geklickt hat, und was er gekauft hat. Diese Daten werden dann um demographische Merkmale ergänzt, und weitere Inhalte aus CRM und ERP Systemen hinzugefügt.

In einem Artikel im Magazin “Towards Data Science” habe ich unlängst beschrieben, wie so ein Verfahren implementiert wird, und an einem Beispiel gezeigt, welche Ergebnisse eine Analyse bei einem Online-Shop mit Millionen Kunden pro Monat erreicht.

Start mit einer “Explorativen Datenanalyse”

In einem ersten Schritt habe ich die Daten unter Verwendung von Visualisierungen näher erforscht, um einen Überblick und erste Erkenntnisse zu erlangen:

  • Wie viele Daten liegen in welchen Zeiträumen vor?
  • Wie verteilen sich die Daten bezüglich einzelner Merkmale?
  • Welche Zusammenhänge liegen vor?
  • etc.

So konnte nicht nur festgestellt werden, dass in der betrachteten “Case Study” überwiegend Elektronikprodukte betrachtet und gekauft wurden, sondern zum Beispiel auch welche Marken beliebt sind.

Berechnung der Segmente mit einem mathematischen Verfahren

Mit den Erkenntnissen aus der Erforschungsphase, wurden anschließend, nach einer geeigneten Vorverarbeitung der Daten, mit Hilfe des Vefahrens: “k-means Clustering”, die Segmentierung berechnet. Ein wesentlicher Schritt war dabei, die richtige Anzahl der Segmente zu bestimmen, die sich gut für die Beschreibung der Daten eignet.

Visualisierung der Ergebnisse

Um einen Eindruck von der Qualität des Clusterings zu bekommen, wurde eine Visualisierung mit dem Verfahren Distributed Stochastic Neighbor Embedding (“tSNE”) erstellt. Dies ist eine Technik zur Dimensionsreduktion von Daten und eignet sich besonders gut für die Visualisierung hochdimensionaler Datensätze. Ein Beispiel dieser Visualisierungen findet sich am Beginn des Artikels.

Charakterisierung der Segmente

Um eine Interpretation der Segmente zu ermöglichen, wurden grafische Darstellungen erstellt, die zum Beispiel für jedes Segment die Merkmale zum Kaufverhalten in den Produktkategorien als “Radar Chart” zeigen. Dies kann dabei helfen die Bedeutung der Segmente zu interpretieren. Zum Beispiel gibt es ein Segment das hohe Kaufanteile im Bereich “Kinder” und “Sport” hat, andere Segmente charakterisieren sich hingegen eher durch die Anzahl der Seitenansichten und Kaufsummen.

Wer sich näher mit der Umsetzung, oder den möglichen Ergebnissen anhand eines Beispiels, beschäftigen möchte, findet die Informationen dazu im Artikel im Online-Magazin “Towards Data Science”.

Herausragend an der Arbeit sind aber nicht nur die Resultate, sondern auch die Methoden, mit denen dies erreicht wurde. Diese zeigen auch den Weg auf, mit dem weitere Verbesserungen erzielt werden können. Es ist damit zu rechnen, dass analog zur Veröffentlichung von Googles Sprachmodell “BERT” (https://en.wikipedia.org/wiki/BERT_(language_model) ) ein Wettlauf für Weiterentwicklungen unter den Wissenschaftlern gestartet wurde, an dessen Ende Dialoge auf menschlichem Niveau möglich sein werden.

Quelle: www.pexels.com

Dieser Chatbot ist nicht nur auf ein Spezialgebiet optimiert

Auf dem “Preprint” Server “arXiv” kann seit Januar 2020 jeder die Arbeit “Towards a Human-like Open-Domain Chatbot” einsehen und lesen. Beschäftigt man sich näher damit, erkennt man die Dimension des Fortschritts, der hier auf diesem Gebiet erreicht wurde. Wie der Titel schon sagt, wird hier kein Chatbot für ein bestimmtes Wissensgebiet entwickelt, sondern eine Möglichkeit gezeigt, ein System zu schaffen, das quasi Universalwissen ähnlich wie ein Mensch hat und mit dem man sich über jedes Wissensgebiet unterhalten kann.

Viele zum Teil schon gut funktionierende Anwendungen von Chatbots sind auf einen Anwendungsfall oder ein Wissensgebiet fokussiert und mittels speziellen Regeln und dem Einsatz von Machine Learning für “Intent Matching” und “Entity Recognition” aufwändig auf einen Spezialfall hin getrimmt. Auf der anderen Seite sind bisherige Versuche von allgemeinen Chatbots noch sehr mäßig in der Qualität gewesen (z.B. Mitsuku).

Quelle: https://arxiv.org/pdf/2001.09977.pdf

Die Beispiel-Dialoge, die in der Arbeit und in größerer Sammlung auf einer Website dokumentiert sind, wirken beeindruckend. Das auf den Namen “Meena” getaufte System antwortet dabei nicht – wie in bisherigen Ansätzen oft zu sehen war – im Stile eines Politikers mit vagen und ausweichenden Formulierungen, um nur ja keine Fehler zu machen, sondern mit sehr spezifischen Antworten und trotzdem meist korrekt.

Ein Beispiel für einen Dialog mit “Meena”

Mensch: Hi!

Meena: Hi! How are you this fine evening?

Mensch: I’m doing well. it’s morning my time!

Meena: Good morning! What are your plans for today?

Mensch: Get my work done then watch a movie at home in the night

Meena: Sounds fun! What movie?

Mensch: I haven’t decided yet, perhaps an Oscarnominated one. any suggestion?

Meena: I’m not too familiar with recent Oscar winners, but I do know I wanted to see The Grand Budapest Hotel.

Mensch: ah, tell me about that movie!

Meena: It’s from the same director and writer as Moonrise Kingdom. Wes Anderson is pretty well known for making funny, colorful films. I’ve heard it’s pretty good.

Mensch: ha! I’ve searched on the internet and both movies are very colorful!

Meena: I’m looking forward to it. I love colorful movies

Meena kann den Kontext der Unterhaltungen erfassen

Was sofort auffällt ist, dass “Meena” bei einer Antwort auf den vorangegangenen Verlauf der Konversation eingeht, also den thematischen Kontext zuordnen kann und daher passende Antworten gibt. Dies ist eines der am schwierigsten zu lösenden Probleme bei der Entwicklung eines künstlichen Gesprächspartners, der wie ein Mensch wirken soll und wurde hier sehr gut gelöst.

Wie schon oben erwähnt, gibt “Meena” sehr spezifische Antworten je nach Frage und Kontext. Um dies zu erreichen haben die Autoren eine neue  Methode entwickelt, um die Qualität von menschlichen und künstlichen Dialogen evaluieren zu können, die nicht nur die Korrektheit der Antworten mit einbezieht, sondern auch wie spezifisch sie sind. Mit dieser Metrik war es dann möglich, “Meena” besser zu evaluieren und optimieren.

“Brute Force” – “End to End” als Lösungsansatz

Noch beeindruckender als die Resultate finde ich die Methoden, mit denen diese erreicht wurden. Die Entwickler wählten eine riesige Neuronale Netz Architektur, eine verbesserte Version des sogenanntes Transformer Modells mit in diesem Fall 2.6 Milliarden Parametern und optimierten dieses dann mit einer gigantischen Menge an Trainingsdaten. Diese in Form von 341 GB an Text vorliegenden Daten wurden aus öffentlichen Dialogen aus den sozialen Medien gewonnen und geeignet gefiltert.

Der Lösungsansatz legt geradezu nahe, die Methode mit noch mehr Daten und noch leistungsfähigeren Modellen zu verbessern und mit weiteren Verfeinerungen der Auswahl der passenden Antworten noch näher an die menschliche Dialogfähigkeit heran zu bringen.

„Wir werden vermutlich noch im Jahr 2020 die ersten konkreten Implementierungen und Anwendungen von “Meena” im Web finden und in nicht zu ferner Zukunft Produkte in unserem Alltag finden, die dies einsetzen. “

PROF. (FH) DR. ANDREAS STÖCKL

HEAD OF CUSTOMER DATA MANAGEMENT

Choropleth – das bewusste Spiel mit Farben

Bei diesem Darstellungstyp werden Regionen auf Karten gemäß ihrer Zahlenwerte eingefärbt. In Abbildung 1 beispielsweise wurde ein Land dann gelb dargestellt, wenn dort 1 bis 9 Menschen am SARS-Coronavirus erkrankt waren.

Eine wesentliche Rolle um die gewünschte Aussage zu vermitteln, spielt bei Choroplethenkarten die Wahl der Farbskala. Jede Farbe löst bei uns Menschen eine andere psychologische Wirkung aus. Dadurch können gewisse Zahlenwerte entsprechend positiv oder negativ dargestellt werden. Grün wird zum Beispiel in Grafiken meist als “richtig” oder “gut” interpretiert, während rot als warnende Signalfarbe wahrgenommen wird.

Eine Quelle für Fehlinterpretationen bei Choroplethenkarten sind die Größen der eingefärbten Regionen. Die Einfärbung ganzer Staaten beispielsweise führt dazu, dass flächenmäßig große Länder einen großen Einfluss auf den Gesamteindruck haben – unabhängig von der Bedeutung ihrer Werte für die Statistik. Russland hat in Abbildung 1 eine große Auswirkung auf das Gesamtbild der Karte, obwohl dort zum Zeitpunkt der Erstellung nur ein einziger Mensch am SARS-Coronavirus erkrankt war. Singapur hingegen hinterlässt kaum einen Eindruck, trotz 238 Erkrankungen.

1. SARS Ausbruch in 2002/2003

In einem Choropleth wird viel Wert auf die Landfläche gelegt, obwohl Größe und Bevölkerung in keinem Zusammenhang stehen. Ein hoher Wert in flächenmäßig großen Staaten mit niedriger Bevölkerungsdichte wird bedeutender wahrgenommen als ein hoher Wert in kleinen Staaten mit hoher Bevölkerungsdichte.

Dotplot – auf den Punkt gebracht

Unter Dotplots versteht man Streudiagramme, bei denen die x- und y-Achsen auf einer Karte dargestellt werden. Durch Größe, Farbe und Form der einzelnen Elemente können zusätzliche Informationen transportiert werden.

Abbildung 2: Übersicht über Krankenhäuser in Österreich, die für Corona-Virus-Verdachtsfälle und -Erkrankungen ausgerüstet sind vom österreichischen Innenminister.

Quelle: Tweet des Österreichischen Gesundheitsministers https://twitter.com/rudi_anschober/status/1232223533239095296

Abbildung 2 zeigt Punkte mit unterschiedlichen Radien um die Standorte von Krankenhäusern. Der Informationsgrafik ist aber nicht zu entnehmen, welche Daten oder welche Informationen den Radius bestimmen. Entspricht er der Größe des Krankenhauses oder dem Einzugsgebiet? Oder sind die Radien so gewählt, um in der Darstellung zur Beruhigung der Bevölkerung eine möglichst gute Überdeckung des Bundesgebietes zu zeigen? Auch bei der Farbe scheint es so, als hätte man bewusst einen harmonischen Grün-Ton gewählt.

Quelle: https://www.caliper.com/featured-maps/maptitude-walmart-diffusion-map.html

Diese Karte zeigt die Verteilung der Wal-Mart-Geschäfte über das Gebiet der USA von den 1960er bis 2000er Jahren.

Die räumliche Verteilung der Punkte in Dotplots ist oft gleich – unabhängig von der Information, die mit Farbe dargestellt wird. So sehen zum Beispiel die meisten Dotplot-Karten der Vereinigten Staaten in etwa gleich aus: viele Punkte an der Ostküste, weniger an der Westküste und noch weniger in der Mitte. Egal ob die Zahl der Millionäre, der Wähler oder der verkauften Waschbecken dargestellt wird, die Punkte sind immer ähnlich verteilt. Die Aufteilung wird stark von der Bevölkerungsdichte beeinflusst, wodurch der eigentliche Inhalt der visualisierten Daten oftmals in den Hintergrund rückt.

Traue keiner Informationsgrafik, die du nicht selbst erstellt hast

Informationsgrafiken auf Kartenbasis sind eine hervorragende Möglichkeit, um komplexe, große Datensätze anschaulich darzustellen – und darüber hinaus ein sehr interessantes Wissensgebiet. Zum einen, um als Konsument über die wichtigsten Gefahren von Fehlinterpretationen informiert zu sein und zum anderen, um diese selbst zur Datenanalyse und Kommunikation verwenden zu können.

Eigene Kartengrafiken erstellen

Wenn Sie selbst Informationsgrafiken mit geographischen Daten erstellen wollen, bietet Google mit dem Google Datastudio ein kostenloses Werkzeug an. Damit können Karten-Visualisierungen einfach erstellt werden.

State Of The Art der Künstlichen Intelligenz

Sprachassistenten. Industrie-Roboter. Face ID.

Künstliche Intelligenz (KI) ist allgegenwärtig. Zahlreiche Technologien und Anwendungsgebiete werden mittlerweile unter dem Schlagwort Künstliche Intelligenz zusammengefasst. Wie können autonome Fahrzeuge Menschen erkennen? Wie und wo kann Künstliche Intelligenz im Online Marketing eingesetzt werden? Warum entwickelt sich das Forschungsgebiet so rasant weiter? Die Antworten auf diese elementaren Fragen habe ich in diesem Artikel zusammengefasst.

Wie Künstliche Intelligenz Bilder erkennt

In selbstfahrenden Autos wird computerunterstütztes Sehen („Computer Vision“) angewandt.

Die Grundlage dafür ist die Bildklassifikation.

Die Künstliche Intelligenz dahinter erkennt Objekte in Bildern und ordnet diese Objektklassen zu. Dadurch kann zum Beispiel ein Mensch von einem Tier unterschieden werden.

Die Bildklassifikation ist bereits ein sehr gut untersuchtes Aufgabenfeld.

Lösungsansätze werden mithilfe von Testaufgaben auf ihre Leistungsfähigkeit untersucht.

Die Datensätze für die Testaufgaben bestehen aus einer Vielzahl von Bildern unterschiedlichster Objekte.

Die Aufgabe für die Anwendung besteht darin, möglichst vielen dieser Bilder die richtige Objektklasse zuzuordnen.

Je mehr Bilder richtig zugeordnet werden, umso höher ist die Erfolgsrate der Künstlichen Intelligenz.

Ein solcher Datensatz ist beispielsweise Image-Net.

Er besteht aus Millionen von Bildern mit tausenden verschiedenen Objektkategorien. Teilweise sind Objekte sogar für Menschen nur schwer zu unterscheiden, wie beispielsweise bei Bildern von Hunderassen. Nichtsdestotrotz liegt die Erfolgsrate der Künstlichen Intelligenz bei „Image-Net“ bei 87,8 Prozent.

CIFAR-10 ist ein weiterer Datensatz für Testaufgaben in der Bildklassifikation. Dabei müssen lediglich zehn unterschiedliche Objekttypen unterschieden werden. Der Bestwert liegt hier sogar bei 99,3 Prozent.

Hirntumore im MRT-Bild eines Gehirns erkennen

Auch in der Medizin wird Künstliche Intelligenz eingesetzt.

Sie hilft zum Beispiel durch die Analyse von MRT-Bildern Tumore zu erkennen.

Die Fortschritte dieser Technologie sind durch Testergebnisse belegt. In den letzten vier Jahren stieg die Erkennungsrate beim „BRATS2013“-Test von 88 Prozent auf 92,5 Prozent.

Vorhersage von Klickraten auf Werbebanner

Künstliche Intelligenz wird auch im Online-Marketing eingesetzt.

Mithilfe von Künstlicher Intelligenz wird zum Beispiel versucht, die Click-Through-Rate von Inhalten vorherzusagen.

Gute Vorhersagen sollen dabei helfen, den Inhalt und die Platzierung zu optimieren. In den letzten vier Jahren kam es hierbei zu Leistungssteigerungen, wie sich an den Ergebnissen des CRITEO-Datensatzes zeigt.

Die Steigerungen sind in diesem Bereich jedoch nicht so deutlich, wie im Bereich der Bildverarbeitung. Das hier verwendete Qualitätsmaß „AOC“ wird im Artikel https://towardsdatascience.com/understanding-auc-roc-curve-68b2303cc9c5 näher beschrieben.

Weitere Aufgabenstellungen

Noch größere Fortschritte gelangen in den letzten 2-3 Jahren im Bereich der Sprachverarbeitung („Natural Language Processing – NLP“). Das automatische Übersetzen hat durch Dienste wie Google Translate oder DeepL eine Qualität erreicht, welche im täglichen Einsatz verwendet werden kann.

Neueste Ansätze bringen erstaunliche Resultate bei der Erzeugung digitaler Inhalte, wie Texte, Videos oder Bilder, hervor. Beispiele hierfür findet man unter anderem in meinen Blogbeiträgen „Website zur Texterzeugung“ oder „Erzeugung von Fake Videos“.

OFFENHEIT ALS ANTRIEB DER WISSENSCHAFT

Eine umfassende Auflistung der derzeitigen Forschungsgebiete und Problemstellungen der Künstlichen Intelligenz, mitsamt spannenden Ranglisten, ist unter Papers With Code zu finden.

Die Website liefert Zugriff auf die aktuellsten wissenschaftlichen Arbeiten („Papers“) und den Quellcode („Code“) hinter den Implementierungen.

So können die Ergebnisse von jedem nachvollzogen werden, oder die Technologie kann für eigene Lösungen und Produkte verwendet werden.

Fazit

Im Bereich Künstliche Intelligenz ist es durchaus üblich, nicht nur die Ergebnisse, sondern auch den Programmiercode offen zu legen. Diese Offenheit ist eine wichtige Voraussetzung für die schnelle Weiterentwicklung, die das Wissensgebiet derzeit erfährt.

Ich schreibe hier und auf meinem persönlichen Blog www.stoeckl.ai ab sofort zu den Themen Data Science, Künstliche Intelligenz und Machine Learning.

Über diesen Blog

Hallo, mein Name ist Christian und du siehst hier das Tutorial Template aus dem Wordpress Template Tutorial auf Lernen²

Kategorien

Archiv