German subtitles for clip: File:WikiCon 2023 - 2045 – Wie Wikipedia in Zeiten von KI überleben kann.webm
Jump to navigation
Jump to search
1 00:00:00,000 --> 00:00:10,000 Herzlich willkommen hier bei dieser Session. Der Titel lautet 2045 – wie Wikipedia in Zeiten von KI überleben kann. 2 00:00:10,000 --> 00:00:20,000 Kurz zum Titel, 2045 ist so gerechnet: Wir befinden uns jetzt in der Hälfte seit Gründung der Wikipedia, also wir haben jetzt Halbzeit. 3 00:00:20,000 --> 00:00:26,000 Und das wäre ein Punkt jetzt zu die Entwicklung zu betrachten. 4 00:00:26,000 --> 00:00:34,000 Der Grundgedanke, auf den wir jetzt dann genauer eingehen werden, ist eine gleichbleibende Entwicklung der Wikipedia wie in den vergangenen 22 Jahren. 5 00:00:34,000 --> 00:00:46,000 Das könnte dazu führen, dass Wikipedia 2045 überhaupt nicht mehr genutzt wird und stattdessen kommerzielle Anbieter mit KI an deren Stelle treten. 6 00:00:46,000 --> 00:00:51,000 Und wir wollen das jetzt möglichst positiv framen: Wie können wir das vermeiden? 7 00:00:51,000 --> 00:00:59,000 Dazu wollen wir einen Impulsvortrag mit Gästen online halten und danach eine Diskussionsrunde anregen. 8 00:00:59,000 --> 00:01:11,000 Gut, also erster Teil, der Impulsvortrag. Grobe Gliederungen: Wir wollen über die aktuellen Entwicklungen in der KI-Branche sprechen, 9 00:01:11,000 --> 00:01:15,000 kurz auch auf langfristige Gefahren durch KI eingehen. 10 00:01:15,000 --> 00:01:23,000 Danach geht es darum, was die Wikimedia Foundation bereits sich dazu überlegt hat. 11 00:01:23,000 --> 00:01:35,000 Möglicherweise... Ich werde kurz auf den aktuellen Jahresplan eingehen, wie kommt KI dort vor und wir werden von unseren Gästen auch über die technischen Entwicklungen in die Richtung hören. 12 00:01:35,000 --> 00:01:43,000 Danach die Frage: Wie wird KI zurzeit in Wikipedia verwendet, diskutiert, gesehen? 13 00:01:43,000 --> 00:01:48,000 Also wie hängt es mit der Communityarbeit zurzeit zusammen? 14 00:01:48,000 --> 00:01:59,000 Dann geht es darum, wie hat sich Wikipedia bis jetzt entwickelt? Wie kann es 2045 bei kontinuierlicher Entwicklung aussehen? Und welche Rolle spielt dabei die KI? 15 00:01:59,000 --> 00:02:11,000 Wir werden ein Worst Case Szenario vorstellen und dann aber eben auch positiv gesehen, wie kann Wikipedia sich bei einer revolutionären Entwicklung 2045... Wie kann sie dann aussehen? 16 00:02:11,000 --> 00:02:17,000 Und im Anschluss daran dann eben mit diesen Impulsen hoffen wir auch eine rege Diskussion. 17 00:02:17,000 --> 00:02:26,000 Gut! Genau: Also wir sind vier Leute, zwei online, zwei hier vor Ort. 18 00:02:26,000 --> 00:02:33,000 Ich bin Kevin Golde, ich bin Wikipedianer seit 2007, angemeldet seit 2009. 19 00:02:33,000 --> 00:02:39,000 Viele kennen mich vielleicht vom Projekt Wiki Loves Broadcast, also der Zusammenarbeit mit ARD und ZDF. 20 00:02:39,000 --> 00:02:46,000 Im Real Life bin ich fast ein Verkehrsingenieur, ich muss nur meine Verteidigung machen. 21 00:02:46,000 --> 00:02:54,000 Und ab morgen auch wieder bei der Deutschen Bahn, genau genommen bei der DB Netz, die ab Januar zur DB InfraGO wird. 22 00:02:54,000 --> 00:03:02,000 Wer dachte, GO steht für gehen, was natürlich die Ampel sehr groß fördert neben dem Autofahren, der liegt hier falsch. 23 00:03:02,000 --> 00:03:08,000 Das GO steht für gemeinwohlorientiert, was auch ein Thema in diesem Vortrag sein wird. 24 00:03:08,000 --> 00:03:21,000 Genau, wieso bin ich an diesem Thema interessiert? Ich würde gerne 2045 noch miterleben und möchte eben auch entsprechend die Wege dazu bereiten, 25 00:03:21,000 --> 00:03:26,000 dass es ein gutes Jahr wird für das Freie Wissen. 26 00:03:27,000 --> 00:03:39,000 Ja, wenn wir die Vorstellungsrunde voll machen: Ich bin Raphael, Wikimedianer, Admin, Autor, mache auch viel Technisches, im juristischen Bereich tätig. 27 00:03:39,000 --> 00:03:45,000 Und ich dachte mir, ich kann nicht in die Zukunft zählen, aber drehen wir mal drüber. 28 00:03:45,000 --> 00:03:50,000 Und unsere Gäster, wenn sie sich vorstellen möchten, auch gerne. 29 00:03:50,000 --> 00:04:05,000 Ja, hallo, ich bin Lydia Pincher, ich arbeite für Wikimedia Deutschland als Portflio Lead für Wikidata und bin da seit 2012 dabei und in meiner Freizeit als Visepräzisantin von KDE e.V. 30 00:04:05,000 --> 00:04:07,000 Denny. 31 00:04:07,000 --> 00:04:19,000 Ich bin Denny Vrandečić. Ich arbeite seit drei Jahren bei Wikimedia Foundation an Abstract Wikipedia und Wikifunctions und bin Wikimedianer seit 20 Jahren 32 00:04:19,000 --> 00:04:24,000 und die letzten zwei Jahre etwa fragen mich alle ständig über KI 33 00:04:24,000 --> 00:04:28,000 also schätze ich mal, hat mich Kevin deswegen auch eingeladen. 34 00:04:31,000 --> 00:04:33,000 Ja, danke, Denny. 35 00:04:33,000 --> 00:04:39,000 Also wir möchten erstmal hier das Ganze mit einer Frage starten. 36 00:04:39,000 --> 00:04:46,000 Und zwar, wer von euch nutzt generative KI wie ChatGPT? 37 00:04:46,000 --> 00:04:51,000 Ja, einige. Und vielleicht ganz kurz zwei, drei Leute, 38 00:04:51,000 --> 00:04:54,000 wofür nutzt ihr es? Vielleicht die, die es auch ein bisschen umfangreicher nutzen, 39 00:04:54,000 --> 00:04:56,000 nicht einfach mal zum Testen. 40 00:04:56,000 --> 00:05:00,000 Ja! Ich nutz es vor allem zum Programmieren, 41 00:05:00,000 --> 00:05:04,000 fällt mir leichter. Vielleicht nochmal, damit man das auch online hört. 42 00:05:04,000 --> 00:05:07,000 Ich nutze es... Ich nutze es vor allem zum Programmieren, 43 00:05:07,000 --> 00:05:13,000 wenn ich jetzt irgendwelche neuen technologien kennenlernen will, wird mir das leichter erklärt, als wenn ich mir erst eine Doku durchlesen muss 44 00:05:13,000 --> 00:05:18,000 und generell auch zum Debuggen ist es ganz gut. 45 00:05:18,000 --> 00:05:23,000 Also zum Beispiel auch GitHub Copilot oder ähnliche Tools. 46 00:05:27,000 --> 00:05:29,000 Möchte noch jemand? 47 00:05:29,000 --> 00:05:35,000 Ich nutze es fallweise, eigentlich vor allem um Schwachstellen aufzuspüren. 48 00:05:35,000 --> 00:05:37,000 Genau. Das war schon einiges. 49 00:05:37,000 --> 00:05:44,000 Ja, also ich persönlich nutze ChatGPT eigentlich nur, um mich für diesen Vorschlag vorzubereiten, 50 00:05:44,000 --> 00:05:47,000 also nicht wirklich. 51 00:05:47,000 --> 00:05:52,000 Genau. Aber ja, im Rahmen dessen habe ich es dann doch ein bisschen kennenlernen dürfen 52 00:05:52,000 --> 00:05:56,000 und habe erstmal gefragt, gut, was weiß denn jeder Mensch? 53 00:05:56,000 --> 00:06:02,000 Und alle Menschen wissen, wenn man sie eben zwei Uhr in der Nacht weckt die Mitternachtsformel. 54 00:06:02,000 --> 00:06:08,000 Und alle Menschen wissen, wenn man sie eben zwei Uhr in der Nacht weckt die Mitternachtsformel. 55 00:06:08,000 --> 00:06:11,000 Dann habe ich ChatGPT nach der Mitternachtsformel gefragt. 56 00:06:11,000 --> 00:06:16,000 Gut, ich glaube jetzt hat sie inzwischen auf bayerisches Abi, also konnte sie mir ausspucken. 57 00:06:16,000 --> 00:06:20,000 Sie konnte mir auch ausspucken, wie man die herleitet, 58 00:06:20,000 --> 00:06:24,000 dann habe ich sie als nächstes gefragt: Okay, wir haben bald in Bayern Wahlen. 59 00:06:24,000 --> 00:06:29,000 Ist Hubert Aiwanger... Ich weiß nicht, wer kennt Hubert Aiwanger? 60 00:06:29,000 --> 00:06:32,000 Jetzt jeder. 61 00:06:32,000 --> 00:06:35,000 Ist er linksgrünversifft? 62 00:06:35,000 --> 00:06:39,000 Und wer würde ihn als linksgrünversifft bezeichnen? 63 00:06:39,000 --> 00:06:42,000 Niemand. Also die Antwort wäre nein. 64 00:06:42,000 --> 00:06:49,000 Hat ChatGPT mir aber nicht gesagt, aber dafür schön um den heißen Brei geschwafelt. 65 00:06:49,000 --> 00:06:52,000 Also dafür war es jetzt nicht brauchbar, 66 00:06:52,000 --> 00:06:58,000 ebenso wenig, wie wenn man die KI fragt, was sagen denn Kritiker über Hubert Aiwanger? 67 00:06:59,000 --> 00:07:03,000 Genau: Im Prinzip, das weiß man auch im Allgemeinen, 68 00:07:03,000 --> 00:07:09,000 ChatGPT zeigt, dass generative... generative KI bereits Grundlagen erklären kann. 69 00:07:09,000 --> 00:07:14,000 Aber noch Probleme hat bei, ja, wenn man mehr ins Detail geht, wie z.B. politische Ausrichtung, 70 00:07:14,000 --> 00:07:18,000 und wie wir auch alle wissen, sie fantasiert gerne Quellen. 71 00:07:18,000 --> 00:07:24,000 Somit sind wir noch gegenüber ChatGPT weit überlegen als Wikipedia, 72 00:07:24,000 --> 00:07:30,000 aber wir sehen zugleich, dass die technische Entwicklung sehr rasch voranschreitet. 73 00:07:30,000 --> 00:07:36,000 Genau! Generative KI kann, wie wir auch heute früh gehört haben, 74 00:07:36,000 --> 00:07:42,000 von Wikipedia oder von Wikidata die Daten frei nutzen, was ich sehr schön finde 75 00:07:42,000 --> 00:07:49,000 und es gibt auch ein ChatGPT-Plugin, das glaube ich aktuell nicht mehr, 76 00:07:49,000 --> 00:07:53,000 kann man also nicht mehr benutzen, als ich es selbst getestet habe, 77 00:07:53,000 --> 00:07:56,000 aber sozusagen, dass es auch auf Wikipedia-Information zugreift, 78 00:07:56,000 --> 00:08:01,000 dann hätte es vielleicht mehr beantworten können, was für Kritiken es zum Beispiel zu Hubert Aiwanger gibt. 79 00:08:01,000 --> 00:08:06,000 Seht ihr auch hier, es gibt einen eigenen Abschnitt "Kontroversen" über ihn in der Wikipedia, 80 00:08:06,000 --> 00:08:09,000 also dann wäre vielleicht ChatGPT ein bisschen schlauer. 81 00:08:12,000 --> 00:08:16,000 Genau, was wir halt auch jetzt heute früh schon berät haben, 82 00:08:16,000 --> 00:08:22,000 ist, dass die Zahl der Aufrufe von Wikipedia heruntergehen. 83 00:08:22,000 --> 00:08:29,000 Was ich jetzt an den ganzen Suchmaschinen... an den ganzen Suchmaschinen erklären würde, 84 00:08:29,000 --> 00:08:36,000 weil die einfach mal den ersten oder den zweiten Satz noch ausspucken 85 00:08:36,000 --> 00:08:41,000 aus Wikipedia, man es also auch nicht weiter recherchiert, 86 00:08:41,000 --> 00:08:44,000 weil dann hat man die Grundinformation ja häufig schon. 87 00:08:45,000 --> 00:08:51,000 Genau, aber wenn wir eh schon beim Thema KI und der Wikimedia waren 88 00:08:51,000 --> 00:08:56,000 und die Leute von der Wikimedia Foundation und Deutschland auch da haben, 89 00:08:56,000 --> 00:08:59,000 habe ich gedacht, geben wir euch einen kleinen Überblick. 90 00:08:59,000 --> 00:09:03,000 Aber erstmal stellt euch Raphael den Jahresplan vor. 91 00:09:03,000 --> 00:09:08,000 Ja, also nicht den ganzen Jahresplan, das würde ja definitiv übder das Ziel herausschießen, 92 00:09:08,000 --> 00:09:11,000 den kann sich jeder durchlesen, wer interessiert ist. 93 00:09:11,000 --> 00:09:16,000 Ich wollte kurz darauf eingehen, was ist so programmatisch schon der Gedanke, 94 00:09:16,000 --> 00:09:19,000 da kann Danny dann sicher auch noch etwas dazu sagen. 95 00:09:19,000 --> 00:09:23,000 Aber grundsätzlich: KI ist noch gar nicht so lange ein Thema. 96 00:09:23,000 --> 00:09:26,000 Ja, es kam alles erst auf dieses Jahr im Grunde. 97 00:09:26,000 --> 00:09:32,000 Aber 2022 hat Maryana Iskander, als sie als neue Geschäftsführerin angetreten ist, 98 00:09:32,000 --> 00:09:37,000 hat sie bereits in ihren Anfangsstatements ein wenig über KI gesprochen, 99 00:09:37,000 --> 00:09:42,000 sie hatte dort angesprochen, dass KI bei den externen Trends, 100 00:09:42,000 --> 00:09:46,000 die wir im Blick behalten sollten, in der Übersetzung vor allem 101 00:09:46,000 --> 00:09:50,000 und auch schon bei erster Erstellung von Inhalten aufkommt. 102 00:09:50,000 --> 00:09:55,000 Und: Dass KI, natürlich KI-Algorithmen im Hintergrund bei großen Plattformen, 103 00:09:55,000 --> 00:09:58,000 sozialen Medien vor allem, zur Moderation verwendet werden. 104 00:09:58,000 --> 00:10:03,000 Das waren so die zwei Punkte, die Maryana damals angesprochen hat. 105 00:10:03,000 --> 00:10:10,000 Und daraus wurde dieser Teil des aktuellen Jahresplans externe Trends, External Trends, entwickelt, 106 00:10:10,000 --> 00:10:16,000 in dem etwas genauer geschaut wurde, welche Trends könnten für uns relevant sein. 107 00:10:16,000 --> 00:10:21,000 Und da ist die große Frage eben, was braucht die Welt von Wikimedia eigentlich? 108 00:10:21,000 --> 00:10:28,000 Das ist alles sehr aktuell, da wurde geschaut, okay, jetzt generative KI explodiert gerade. 109 00:10:28,000 --> 00:10:32,000 Es gibt große Veränderungen, was bedeutet das für uns? 110 00:10:32,000 --> 00:10:37,000 Wikimedia hat jetzt eine zunehmend unklare Rolle im gesamten Wissensökosystem, 111 00:10:37,000 --> 00:10:44,000 gerade weil wir schon angesprochen haben, die Suchmaschinen integrieren mittlerweile alle KI 112 00:10:44,000 --> 00:10:50,000 und dadurch kommt ein zusätzlicher Vermittler zwischen den Wikimedia-Inhalten und den Nutzenden. 113 00:10:50,000 --> 00:10:53,000 Dadurch entsteht eine immer größere Distanz 114 00:10:53,000 --> 00:10:56,000 und daran müssen wir wahrscheinlich arbeiten. 115 00:10:57,000 --> 00:11:03,000 Dazu kommen, wie wir alle wissen, Urheberrechtsfragen, Fragen nach dem zusätzlichen Bias, 116 00:11:03,000 --> 00:11:06,000 nach der Unzuverlässigkeit der Inhalte. 117 00:11:06,000 --> 00:11:12,000 Und im Jahresplan 2023/24 gibt es dadurch daraus noch keine Konsequenzen, 118 00:11:12,000 --> 00:11:14,000 das sind alles Trends, die wir im Blick behalten müssen 119 00:11:14,000 --> 00:11:22,000 aber für die Ziele der Wikimedia Foundation in diesem Jahr hat es noch keine direkten Auswirkungen, 120 00:11:22,000 --> 00:11:25,000 denn die sind alle sehr communityzentriert. 121 00:11:25,000 --> 00:11:33,000 Im März dieses Jahres gab es auch einen Community-Call, in dem Herausforderungen und Chancen aufgrund dieser Trends angesprochen wurden, 122 00:11:33,000 --> 00:11:36,000 darauf komme ich später nochmal zu sprechen. 123 00:11:39,000 --> 00:11:42,000 Damit gebe ich an Denny. 124 00:11:42,000 --> 00:11:49,000 Ich wollte ein paar Sachen besprechen, die wir dann in ein bisschen Detail, die Rafael jetzt auch angesprochen hat. 125 00:11:49,000 --> 00:11:55,000 Wir haben zum Beispiel ein Team um Chris Alborn und andere, die an Machine Learning arbeiten. 126 00:11:55,000 --> 00:12:03,000 Also Chris arbeitet vor allem an allen möglichen Machine-Learning-Sachen, die die Foundation verwendet oder auch die die Communities verwenden, 127 00:12:03,000 --> 00:12:07,000 zum Beispiel wie das ehemalige ORASE das jetzt... 128 00:12:08,000 --> 00:12:11,000 Winged... nein, Left Wing heißt. 129 00:12:12,000 --> 00:12:19,000 Und eins der Sachen, an denen Sie gearbeitet haben, ist auch der ChatGPT-Plugin, den Rafael erwähnt hat. 130 00:12:19,000 --> 00:12:23,000 An anderen internen Experimenten mit neuen generativen Methoden... 131 00:12:23,000 --> 00:12:29,000 Aber wir haben natürlich nicht die Ressourcen als die WMF ein Sprachmodell von Grund auf zu trainieren, 132 00:12:29,000 --> 00:12:31,000 das kostet einfach viel zu viel. 133 00:12:31,000 --> 00:12:39,000 Diese Dinge kosten ja über 100 Millionen inzwischen, wenn man die kompetitiv mit so Sachen wie GPT-4 und so weiter trainieren möchte. 134 00:12:39,000 --> 00:12:46,000 Und unser wichtigstes Ziel ist es wirklich behutsam und kooperativ mit der Community zusammenzuarbeiten 135 00:12:46,000 --> 00:12:54,000 und zusammen die folgende Arbeit, die wir immer machen, abzuschätzen, auch der Community zu helfen, indem was sie erreichen möchte. 136 00:12:54,000 --> 00:12:57,000 Und dann gemeinsam eben Schritte zu machen. 137 00:12:57,000 --> 00:13:01,000 Es gibt viele Möglichkeiten, wie generative KI verwendet werden können. 138 00:13:01,000 --> 00:13:03,000 Teilweise kommen diese Vorschläge aus der Community, 139 00:13:04,000 --> 00:13:08,000 zum Beispiel Zusammenfassungen für Bearbeitungen könnten automatisch vorgeschlagen werden. 140 00:13:08,000 --> 00:13:13,000 Dann könnte der Nutzer sagen: "Ja, das gefällt mir" oder es nochmal bearbeiten. 141 00:13:13,000 --> 00:13:18,000 Wir könnten uns Artikel anschauen, schauen, wie könnte man die Lesbarkeit verbessern. 142 00:13:18,000 --> 00:13:29,000 Oder was ich auch gesehen habe, in der Community ist eine Diskussion, ob man zum Beispiel generierte Bilder zur Bewilderung von Artikeln verwenden soll. 143 00:13:29,000 --> 00:13:33,000 Ich weiß nicht, ob das jetzt eine Idee ist, aber es ist etwas, was diskutiert wird in der Community. 144 00:13:33,000 --> 00:13:43,000 Oder auch zum Beispiel, ob wir Social-Media-Schnipsel aus der Wikipedia heraus generieren sollen, die man dann auf die Wikipedia zurückverlinkt und das ganze findet. 145 00:13:43,000 --> 00:13:46,000 Also das sind so Ideen, die rumfliegen 146 00:13:46,000 --> 00:13:48,000 und da gibt es noch viel mehr 147 00:13:48,000 --> 00:13:52,000 und ich bin mir sicher, dass viele von euch im Raum auch noch mehr Ideen haben. 148 00:13:52,000 --> 00:13:56,000 Mein eigener Ansatz ist sehr unterschiedlich davon: 149 00:13:56,000 --> 00:14:00,000 Ich arbeite ja an Abstract Wikipedia und Wikifunctions, davor an Wikidata. 150 00:14:00,000 --> 00:14:08,000 Und da ist die Idee, das ist so eine parallele Spur zu dem Ganzen, 151 00:14:08,000 --> 00:14:15,000 da ist die Idee, dass wir eben nicht nur auf komplette enzyklopädische Artikel setzen, um Wissen zu verbreiten, um an Wissen zu arbeiten, 152 00:14:15,000 --> 00:14:26,000 sondern an anderen Arten von Wissen und an anderen Formen von Wissen, wo das dann automatisch bearbeitbar ist, was semantisch deklarativ ist. 153 00:14:26,000 --> 00:14:33,000 Also sozusagen in Wikidata diese einzelnen Statements. Wenn Wikifunctions Funktionen haben, die Antworten berechnen können 154 00:14:33,000 --> 00:14:44,000 und dass wir dann durch... dass wir dann durch diese Funktion oder durch Sparkle über Wikidata eben Fragen beantworten können, ohne dass wir die Korrektheit in Kauf nehmen müssen 155 00:14:44,000 --> 00:14:50,000 ohne dass wir uns ein Risiko aussetzen müssen, dass wir... dass jetzt diese Modelle haluzinieren. 156 00:14:50,000 --> 00:15:01,000 Und auch das ist etwas, wo wir dann daran arbeiten möchten, dass diese Modelle dann zum Beispiel zugreifen auf die korrekten Daten, die aus dem Wikimedia-Universum kommen, 157 00:15:01,000 --> 00:15:11,000 ob das jetzt aus Commons ist, aus Wikidata, aus der Enzyklopädie selbst, aus Wikipedia oder aus Wiktionary oder Wikifunctions, das spielt ja jetzt nicht so viel eine Rolle 158 00:15:11,000 --> 00:15:15,000 so lange wir dann die Fragen beantworten. 159 00:15:15,000 --> 00:15:18,000 Das sind... das sind großen Überblick von ein paar der Sachen, die wir machen, 160 00:15:18,000 --> 00:15:22,000 das ist weder vollständig noch ist das jetzt, als wir das machen sollten. 161 00:15:22,000 --> 00:15:25,000 Und wie gesagt, die Community hat ja noch viel, viel mehr in petto. 162 00:15:25,000 --> 00:15:29,000 Ich reiche wieder zurück, ich glaube an Kevin, um weiter zu machen. 163 00:15:29,000 --> 00:15:40,000 Okay, ja, ich gehe jetzt da nochmal kurz weiter, was die Community bereits ja... Also es gibt nicht so wirklich Community-Arbeit mit KI; gibt es jetzt in diesem Sinne noch nicht, 164 00:15:40,000 --> 00:15:44,000 es wurde aber sehr, sehr viel drüber gesprochen in diesem Jahr. 165 00:15:44,000 --> 00:15:55,000 Wie gesagt, es gab diesen Community Call, den die Wikimedia Foundation initiiert hatte im März, in dem dann eben Herausforderungen und Chancen besprochen wurden, 166 00:15:55,000 --> 00:16:02,000 Wie gesagt, es gab diesen Community Call, den die Wikimedia Foundation initiiert hatte im März, in dem dann eben Herausforderungen und Chancen besprochen wurden, 167 00:16:02,000 --> 00:16:09,000 Ich nenne nur exemplarisch ein paar Herausforderungen. Als Herausforderungen wurden damals identifiziert: 168 00:16:09,000 --> 00:16:13,000 Schriftliches Wissen verliert an Vertrauen durch generative KI, 169 00:16:13,000 --> 00:16:17,000 das Wikimedia Modell ist dadurch bedroht, 170 00:16:17,000 --> 00:16:24,000 es entstehen zusätzliche Biases durch die Trainingsdaten, die dann auch wieder Einzug in Wikipedia halten könnten 171 00:16:24,000 --> 00:16:27,000 und natürlich urheberrechtliche Fragen. 172 00:16:27,000 --> 00:16:34,000 Chancen können aber gleichzeitig sein, dass dann gegenüber diesen Inhalten Wikimedia als verlässliche Quelle gilt, 173 00:16:34,000 --> 00:16:38,000 also nochmal als verlässlicher, als sie bis jetzt schon wahrgenommen wird. 174 00:16:38,000 --> 00:16:44,000 Sie kann bei Zusammenfassungen, wie wir schon gehört haben, aber auch bei Übersetzungen sehr, sehr nützlich sein, 175 00:16:44,000 --> 00:16:48,000 automatische Transkriptionen von Interviews zum Beispiel. 176 00:16:48,000 --> 00:16:53,000 Und man könnte aufgrund all unserer Arbeit dann ein Open-Source-Sprachmodell entwickeln. 177 00:16:53,000 --> 00:16:59,000 Das wurde so im März damals besprochen und in der deutschsprachigen Wikipedia kam es seit Februar, glaube ich, 178 00:16:59,000 --> 00:17:06,000 ich habe ein bisschen die Archive durchwühlt, seit Februar im Archiv des Kuriers wurde es diskutiert. 179 00:17:06,000 --> 00:17:10,000 Und danach gab es vier Digitale Themenstammtische zum Thema. 180 00:17:10,000 --> 00:17:14,000 Einmal, ja, können wir KI-generierte Bilder verwenden? 181 00:17:14,000 --> 00:17:18,000 Können KIs schon Artikel schreiben? 182 00:17:18,000 --> 00:17:22,000 Wie ist das Verhältnis von Mensch und Maschine in einem solchen Fall? 183 00:17:22,000 --> 00:17:27,000 Und können KIs bei der Literaturrecherche behilflich sein? 184 00:17:27,000 --> 00:17:33,000 Und relativ, ja, relativ kürzlich war auch noch ein Thema: 185 00:17:33,000 --> 00:17:38,000 Sollen wir Tools zur Vandalismusbekämpfung nutzen, die auf KI basieren, 186 00:17:38,000 --> 00:17:43,000 das wird ja in anderen Wikipedia-Sprachversionen schon mehr gemacht als bei uns der Fall ist, 187 00:17:43,000 --> 00:17:47,000 bei uns wird es relativ abgelehnt bis jetzt. 188 00:17:47,000 --> 00:17:53,000 Und dazu kann ich dann gleich die Frage in den Raum stellen: 189 00:17:53,000 --> 00:17:58,000 Habt ihr Ideen, wie KI euch bei eurer Arbeit helfen kann? 190 00:17:58,000 --> 00:18:04,000 [Ab hier Untertitel durch Whisper Medium erzeugt] Wie gesagt, es wird viel drüber gesprochen, aber es ist noch nicht so wirklich in der Arbeit. 191 00:18:04,000 --> 00:18:06,000 Es gibt noch nicht wirklich. 192 00:18:06,000 --> 00:18:10,000 Ja, die Aktualisierung der Wikipedia ist ja immer ein großes Thema. 193 00:18:10,000 --> 00:18:16,000 Und auch hier ist eigentlich das Potenzial endlos, also Vorschläge, 194 00:18:16,000 --> 00:18:19,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 195 00:18:19,000 --> 00:18:22,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 196 00:18:22,000 --> 00:18:25,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 197 00:18:25,000 --> 00:18:28,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 198 00:18:28,000 --> 00:18:31,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 199 00:18:31,000 --> 00:18:34,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 200 00:18:34,000 --> 00:18:37,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 201 00:18:37,000 --> 00:18:40,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 202 00:18:40,000 --> 00:18:43,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 203 00:18:43,000 --> 00:18:46,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 204 00:18:46,000 --> 00:18:49,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 205 00:18:49,000 --> 00:18:52,000 die wir in der Arbeit haben, die wir in der Arbeit haben, 206 00:18:52,000 --> 00:18:55,000 und dann die aktuellen Geschehnissen in Deinen Artikel. 207 00:19:16,000 --> 00:19:19,000 Ich könnte mir vorstellen, dass das vielleicht sprachliche Verbesserungen macht, 208 00:19:19,000 --> 00:19:22,000 dass es eine Komma-Fehler-Ausbesserung oder so ist, 209 00:19:22,000 --> 00:19:25,000 dass KI das besser erkennt als ein Durchschnittsmensch, 210 00:19:25,000 --> 00:19:28,000 weil wir doch nicht alle alle Regeln kennen vielleicht. 211 00:19:28,000 --> 00:19:31,000 Aber ich kann mir noch nicht vorstellen, dass aktuell, 212 00:19:31,000 --> 00:19:34,000 in den nächsten ein, zwei Jahren, 213 00:19:34,000 --> 00:19:37,000 da wirklich was Text generiert, 214 00:19:37,000 --> 00:19:40,000 die man wirklich gut brauchen kann in der Wikipedia, 215 00:19:40,000 --> 00:19:43,000 aber so zum sprachlichen Überarbeiten sowas, 216 00:19:43,000 --> 00:19:46,000 kann ich mir durchaus vorstellen. 217 00:19:47,000 --> 00:19:50,000 Ja, ich habe auch noch nichts zusammengebracht, 218 00:19:50,000 --> 00:19:53,000 mit JGBT und so, auch anderen Programmen, 219 00:19:53,000 --> 00:19:56,000 mit JGBT und so, auch anderen Programmen, 220 00:19:56,000 --> 00:19:59,000 was Wikipedia halbwegs irgendwie tauglich oder mich unterstützen würde. 221 00:19:59,000 --> 00:20:02,000 was Wikipedia halbwegs irgendwie tauglich oder mich unterstützen würde. 222 00:20:02,000 --> 00:20:05,000 Auch keine vielen Bürgermeister, aber ich habe mich auch noch 223 00:20:05,000 --> 00:20:08,000 viel zu wenig damit befasst. 224 00:20:08,000 --> 00:20:11,000 Das Einzige, was es mir bringt, ist, es gibt mir gewisse Anregungen, 225 00:20:11,000 --> 00:20:14,000 was ich eigentlich noch schreiben könnte, 226 00:20:14,000 --> 00:20:17,000 was ich noch verbessern könnte, was ich noch einbauen könnte. 227 00:20:17,000 --> 00:20:20,000 Das bringt schon Anregungen, vielleicht sind manche davon absurd, 228 00:20:20,000 --> 00:20:23,000 die nehme ich halt nicht, aber manche, 229 00:20:23,000 --> 00:20:26,000 also ich bin immer bereit, so Ideen auch von anderen, 230 00:20:26,000 --> 00:20:29,000 natürlich Anregungen, aber auch von JGBT anzunehmen 231 00:20:29,000 --> 00:20:32,000 und nach zu recherchieren und dann einzubauen. 232 00:20:32,000 --> 00:20:35,000 Da ich von künstlicher Intelligenz nicht viel verstehe, 233 00:20:35,000 --> 00:20:38,000 Da ich von künstlicher Intelligenz nicht viel verstehe, 234 00:20:38,000 --> 00:20:41,000 ist mein Vorschlag eher Wunschdenken als wirklich konkret. 235 00:20:41,000 --> 00:20:44,000 ist mein Vorschlag eher Wunschdenken als wirklich konkret. 236 00:20:44,000 --> 00:20:47,000 Nämlich, ich wünschte mir, dass es eine Intelligenz, 237 00:20:47,000 --> 00:20:50,000 Nämlich, ich wünschte mir, dass es eine Intelligenz, 238 00:20:50,000 --> 00:20:53,000 welche auch immer gibt, 239 00:20:53,000 --> 00:20:56,000 was nicht in jedem Bereich der Welt eben nur hier in Deutschland 240 00:20:56,000 --> 00:20:59,000 und Kirchengarten hinein geht, 241 00:20:59,000 --> 00:21:08,640 Welche auch immer gibt, die Kategorien von Wikikommens, Deutschwikipedia und und und 242 00:21:08,640 --> 00:21:18,280 irgendwie standardisiert und möglichst kohärent macht oder Vorschläge dazu macht. 243 00:21:18,280 --> 00:21:23,560 Sprachübergreifend, global, so eben. 244 00:21:23,560 --> 00:21:25,560 Künstliche Intelligenz. 245 00:21:25,560 --> 00:21:32,560 Nützlich soll es sein, hilfreich, aber wahrscheinlich der Mensch, der dann irgendwann darüber schaut. 246 00:21:32,560 --> 00:21:48,560 Ich kann mir für die Zukunft auch gut vorstellen, dass wir vor allem in der Artikelarbeit wesentliche Erleichterungen 247 00:21:49,560 --> 00:22:00,560 mittels Chagipity oder KI überhaupt haben werden, indem wir einfach simple Sachen, für die wir sonst eine halbe Stunde sitzen und schreiben oder Copy-Paste machen, 248 00:22:00,560 --> 00:22:17,560 dass uns das KI abnehmen wird und wir dann quasi auf die Besonderheiten im Artikel einfach selbst dann Rücksicht nehmen können und mehr Zeit dafür haben, dann auch auf die Qualität im Artikel zu achten. 249 00:22:17,560 --> 00:22:28,560 Vielen Dank für die Beiträge. Wir werden später noch weitere Diskussionen haben. Deswegen merkt euch mit die Frauen, wir wollen bald einen Vortrag machen. 250 00:22:28,560 --> 00:22:40,560 Also zum Beispiel, ich hatte heute auch Übersetzungen genannt, das wäre auch ein Punkt, es gibt zahlreiche Anwendungen von anwendensmöglichkeiten.KI, die glaube ich der Wikipedia erhältend können. 251 00:22:40,560 --> 00:22:50,560 Jetzt haben wir natürlich nicht nur positive Seiten, sondern auch sehr viele Probleme, die wir auch mal klar benennen müssen. 252 00:22:50,560 --> 00:23:00,560 Wir haben kontinuierlich, vor allem in der deutschsprachigen Wikipedia, einen Autorinnen- und Autorenrückgang. 253 00:23:00,560 --> 00:23:12,560 Und genau, also selbst während Corona ist es tendenziell immer noch weiter abgesunken, bekommen wir einfach nicht in den Griff, müssen wir ganz offen sagen. 254 00:23:12,560 --> 00:23:29,560 Wir haben zahlreiche veraltete Informationen, also tatsächlich, das ist jetzt ein Beispiel, wo ich einfach mal gesehen habe, im Jahr 2021 oder so, im Artikel Lufthansa, 255 00:23:29,560 --> 00:23:38,560 das ist eine Information, die 2017 in Zukunft setzt und ich jetzt auch nicht einfach sagen kann, ist es jetzt so gekommen oder nicht. 256 00:23:38,560 --> 00:23:49,560 Deswegen einfach mal ein Baustein gesetzt habe, dieser Artikel braucht ein Update. Und dann habe ich mir überlegt, was für ein Beispiel könnte ich denn nennen. 257 00:23:49,560 --> 00:24:00,560 Und bin eben heute oder im Vorbereitung auf diesen Vortrag nochmal auf diesen Artikel gegangen und habe gesehen, Baustein und veraltete Infos stehen immer noch. 258 00:24:00,560 --> 00:24:09,560 Und das ist jetzt nur ein Beispiel von mir, was halt tatsächlich durch die ganze Wikipedia geht. 259 00:24:09,560 --> 00:24:19,560 Und jetzt ist die Lufthansa natürlich nicht irgendein Artikel, die wird pro Tag in einem vierstelligen Bereich immer abgerufen, wie man hier sieht. 260 00:24:19,560 --> 00:24:26,560 Ist in den Top 1000 Rankings der meist abgerufenen Artikel in der Deutschsprachigen Wikipedia. 261 00:24:26,560 --> 00:24:39,560 Und da steht halt auch die ganze Zeit, jeden Tag sehen wahrscheinlich nicht alle 1000 Menschen, aber viele von denen diesen veralteten Baustein und dass da Informationen veraltet sind. 262 00:24:39,560 --> 00:24:46,560 Und das ist halt nur beispielsweise im Lufthansa-Artikel. Das macht sich glaube ich nicht so gut. 263 00:24:46,560 --> 00:24:52,560 Und zum Vergleich, welches Verkehrsunternehmen fällt uns wahrscheinlich in Deutschland als erstes ein? Deutsche Bahn. 264 00:24:52,560 --> 00:25:01,560 Heißt, da habe ich die Deutsche Bahn als Referenz genommen und tatsächlich wird die Lufthansa, die ist aktuell, häufiger aufgerufen als die Deutsche Bahn. 265 00:25:01,560 --> 00:25:09,560 Also es ist eine Menge, die diese veraltete Information in dem Artikel sehen. 266 00:25:09,560 --> 00:25:19,560 Und wir stellen uns heute wahrscheinlich alle einen guten Wikipedia-Artikel so vor, dass da ausreichend Quellen sind. 267 00:25:19,560 --> 00:25:36,560 In dem Fall ist der Artikel Deutschland-Ticket, wo ich auch ein Auge drüber hatte, wo der auch erst 2022 geschrieben werden konnte, scheint glaube ich allen der Artikel vom ersten Eindruck zu passen. 268 00:25:36,560 --> 00:25:43,560 Jetzt haben wir aber sehr, sehr viele Artikel, die auch älter sind, wie hier über die Laptipenden. 269 00:25:43,560 --> 00:25:53,560 Der Artikel war zwischen 2004 und 2021 exzellent. Er hat jetzt in dem gescreenshoteten Bereich zum Beispiel keinen einzelnen Einzelnachweis. 270 00:25:53,560 --> 00:26:03,560 Und meiner Erfahrung nach zumindest ist es so, dass tendenziell dort, wo auch kein Einzelnachweis ist, eine Information eher falsch ist, als da, wo es Einzelnachweise gibt. 271 00:26:03,560 --> 00:26:10,560 Einfach weil man dann sich denkt, ja, habe ich irgendwie so schon noch in Erinnerung, dann wird sie auch schon so sein. 272 00:26:10,560 --> 00:26:22,560 Passiert heute noch, deswegen bin ich konsequent dafür, Artikel ohne, also Beiträge ohne Nachweis rauszunehmen, wenn man nicht selbst einen Nachweis findet. 273 00:26:22,560 --> 00:26:30,560 Oder genau auch hier zu überlegen, wie gehen wir damit um. Aber das ist halt ein Problem, das wir haben. 274 00:26:30,560 --> 00:26:35,560 Dementsprechend, wenn wir jetzt sagen, Leute, wir machen einfach weiter, so passt ja alles. 275 00:26:35,560 --> 00:26:43,560 Also wir haben einen Autoren-Schwund bei einer steigenden Artikelzahl, was die Artikelwartung ja heute kaum mehr möglich macht. 276 00:26:43,560 --> 00:26:48,560 Und die Artikel steigen weiter. Viele Artikel sind bereits heute veraltet. 277 00:26:48,560 --> 00:26:57,560 Wird es bei dem gleichen Trend kaum mehr möglich sein, der Artikelwartung wirklich noch nachzukommen? 278 00:26:57,560 --> 00:27:13,560 Wir haben ein großes Problem mit Artikel-Reliken auch, mit unbelegten Informationen, insbesondere aus Anfangszeiten, aber auch heute noch, wenn einfach mal ein Sichter oder auch ein aktiver Sichter einen Beitrag durchginkt, ohne das zu belegen. 279 00:27:13,560 --> 00:27:22,560 Der Schwere kommt noch hinzu und ich glaube, es wird auch die ganze Zeit unterschätzt, politisch motivierte Pay-Edits und Selbstdarstellungen. 280 00:27:22,560 --> 00:27:33,560 Und das Ganze wird halt einfach immer schwieriger, je weniger Leute wir haben, die Wikipedia ehrenamtlich bearbeiten oder zu einem gemein orientierten Zweck bearbeiten, sagt man so. 281 00:27:33,560 --> 00:27:41,560 Aber wie gehen wir damit um? Wir sagen bisher, ja, ist doof, aber eigentlich doch auch wieder egal. 282 00:27:41,560 --> 00:27:46,560 Ich meine, wir haben das Wissensmonopol. Uns macht eh keiner Konkurrenz. Passt doch alles. 283 00:27:46,560 --> 00:27:55,560 Und wenn man sagt, ja, aber ihr habt doch Verantwortung, Wikipedia darauf beziehen sich alle und sagen, ja, nee, Wikipedia ist doch eh nicht der richtige Weg. 284 00:27:55,560 --> 00:28:02,560 Und das ist halt sozusagen so, wie wir aktuell dastehen. Hat bisher ganz gut geklappt. 285 00:28:02,560 --> 00:28:13,560 Aber jetzt haben wir mit künstlicher Intelligenz eine Entwicklung, die es, sagen wir mal, beim aktuellen Niveau der Wikipedia ein leichtes Spiel macht. 286 00:28:13,560 --> 00:28:23,560 Mal Projekt und Projektivität. Und dann haben wir die ganze Zeit, das ist ein ganz ganz wichtiges Thema, das wir jetzt auch in der Zeit haben. 287 00:28:23,560 --> 00:28:30,560 Und das ist ein ganz wichtiges Spiel macht, mal projiziert auf das Jahr 2045, besser zu sein als Wikipedia. 288 00:28:30,560 --> 00:28:38,560 Und bisher haben alle einfach das Problem mit den menschlichen Ressourcen, was der Vorteil der Wikipedia mit den ganzen Ehrenamtlerinnen ist. 289 00:28:38,560 --> 00:28:44,560 Aber es wird halt voraussichtlich durch eine generative KI ersetzt werden. 290 00:28:44,560 --> 00:28:49,560 Darauf können wir uns meiner Meinung nach nicht mehr allzu sehr ausruhen. 291 00:28:50,560 --> 00:28:59,560 Und das Problem ist jetzt aktuell noch auch für die KI, die kann nur aus der Wikipedia sozusagen ihre Infos speisen. 292 00:28:59,560 --> 00:29:05,560 Was uns auch noch einen Vorteil gibt, weil die Literatur nicht preilizensiert ist. 293 00:29:05,560 --> 00:29:13,560 Jetzt nehmen wir aber mal an, dass kommerzielle Unternehmen sind, während die eine Lösung finden. 294 00:29:13,560 --> 00:29:21,560 Ich meine, wir haben ja auch YouTube zum Beispiel gehabt, die lange von der GEMA die ganze Musik nicht abspielen konnte. 295 00:29:21,560 --> 00:29:34,560 Sozusagen, dass man, dass die ganzen KI Unternehmen, ein KI Unternehmen durch eine Gebühr an die ganze Literatur braucht, 296 00:29:34,560 --> 00:29:41,560 die sie benötigt, um ihre KI sozusagen zu trainieren und schlauer zu machen. 297 00:29:41,560 --> 00:29:47,560 Und sobald die KI dann schlau ist als die Wikipedia, sage ich, ist die Wikipedia tot. 298 00:29:47,560 --> 00:29:54,560 Und jetzt ist natürlich erstmal die Frage, was daran schlecht ist, das ist doch technischer Fortschritt, dann haben wir eine bessere Quelle als die Wikipedia. 299 00:29:54,560 --> 00:30:04,560 Ich würde jetzt erstmal nicht sagen, dass es zwingend schlecht ist, aber kommerzielle Unternehmen sind profit- und nicht gemeinwohlorientiert. 300 00:30:04,560 --> 00:30:14,560 Das müssen wir uns immer vor Augen führen. Und sobald die Wikipedia, eine kollaborative Enzyklopädie weg ist, hat ein Wirtschaftsunternehmen, 301 00:30:14,560 --> 00:30:19,560 ein Typ wie dieser hier, die Macht auf das Monopol, auf das Wissen der Welt. 302 00:30:19,560 --> 00:30:24,560 Und ich meine, gerade mit Twitter inzwischen, ex, sehen wir wohin das führt. 303 00:30:24,560 --> 00:30:33,560 Also Fake News wird hier zunehmen, Meinungen, die ihm nicht gefallen, wenn man ihn kritisiert zum Beispiel, fallen weg. 304 00:30:33,560 --> 00:30:39,560 Im Prinzip, nun sind Manipulationen in einem viel größeren Umfang möglich, als wir heute in der Wikipedia erleben. 305 00:30:39,560 --> 00:30:47,560 Und das möchte ich nicht, deswegen komme ich zum Fazit, die Wikipedia muss sich weiterentwickeln, damit das freie Wissen überlegt. 306 00:30:47,560 --> 00:30:55,560 Jetzt wäre ich eigentlich sozusagen zu meinem Konzept gekommen, aber mir wurde noch eine Folie dazwischen reingeschoben. 307 00:30:55,560 --> 00:31:02,560 Danke. Ich finde Kevins Szenario sogar noch optimistisch, um ehrlich zu sein. 308 00:31:02,560 --> 00:31:10,560 Er geht davon aus, dass irgendeine KI schlauer sein wird als Wikipedia und dann die Wikipedia ersetzt, was ich sehr optimistisch finde. 309 00:31:10,560 --> 00:31:15,560 Ich fürchte, dass die KI nicht mal schlauer sein muss, um Wikipedia zu ersetzen. 310 00:31:15,560 --> 00:31:23,560 Sie muss bloß vielleicht zugänglicher sein oder sie muss einfacher an die Benutzer kommen oder besser dem Nutzerprofil entsprechen, als das Wikipedia tut. 311 00:31:23,560 --> 00:31:28,560 Und das kann sie tun, lange, lange bevor sie schlauer ist als Wikipedia. 312 00:31:28,560 --> 00:31:39,560 Das Szenario, das mir meistens Sorgen macht, ist, dass irgendwelche KI-basierten Mitbewerber der Wikipedia einen Großteil der Leserschaft rauben. 313 00:31:39,560 --> 00:31:50,560 Und das nicht mal unbedingt aus Brothaftigkeit, weil es vielleicht einfacher ist, weil es über Stimme geht, weil es auf dem Mobiltelefon vielleicht besser zugänglicher ist oder wie auch immer. 314 00:31:50,560 --> 00:32:03,560 Auf irgendeiner Art und Weise, vielleicht sogar auf Wikipedia-Wissen basierend, werden viele Leser von der Wikipedia ferngehalten und kriegen trotzdem ihre Antworten, was ja an sich gut klingt. 315 00:32:04,560 --> 00:32:19,560 Und dann, wegen dem Rückgang in der direkten Leserschaft, wenn der Lufthandsartikel eben nicht mehr 1000 Leser pro Tag hat, sondern vielleicht nur noch zwei oder drei oder vielleicht null Leser pro Tag hat, 316 00:32:19,560 --> 00:32:24,560 fällt die Motivation für viele Mitarbeiter weg, für die freiwilligen Mitarbeiter. 317 00:32:24,560 --> 00:32:27,560 Und dann brechen die freiwilligen Mitarbeiter noch viel stärker weg, als sie es jetzt schon haben. 318 00:32:28,560 --> 00:32:35,560 Statt 10.000 Mitarbeiter haben wir nur noch 100 Mitarbeiter und können natürlich nicht mehr die Wikipedia unterstützen. 319 00:32:35,560 --> 00:32:41,560 Sie wird statisch, sie wird nicht mehr von Hand aktualisiert in den meisten Artikeln und wird dadurch schließlich irrelevant. 320 00:32:41,560 --> 00:32:43,560 Und das ist das, was man meistens Angst macht. 321 00:32:43,560 --> 00:32:53,560 Aber jetzt kommt so eine Sache, dass diese ganzen Machine Learning Modelle, diese ganzen KI-Sachen ja auf Daten aus der Wikipedia und anderen Quellen beruhen. 322 00:32:53,560 --> 00:33:00,560 Und die anderen Quellen sind zum Beispiel Zeitungen, die auch nicht so sauber dastehen zurzeit und die auch in Schwierigkeiten sind. 323 00:33:00,560 --> 00:33:08,560 Und letzten Endes, mehr und mehr dieser Quellen verwenden dann auch KI, um neue Texte zu generieren. 324 00:33:08,560 --> 00:33:16,560 Wenn du jetzt aber anfängst, KI auf KI-Texten zu trainieren, kommt es zu etwas, das sich Modellkollapsen nennt. 325 00:33:17,560 --> 00:33:20,560 Die KI's werden plötzlich viel schlechter. 326 00:33:26,560 --> 00:33:29,560 Das passiert dann in einer gewissen Verzögerung natürlich. 327 00:33:29,560 --> 00:33:30,560 Das ist nicht sofort. 328 00:33:30,560 --> 00:33:44,560 Das passiert, wenn mehr und mehr Texte da sind und langsam den Korpus übernehmen, dass die Qualität der KI wahrscheinlich langsam unbemerkt, aber langsam schlechter wird und dann plötzlich viel schlechter wird. 329 00:33:46,560 --> 00:33:52,560 Zu dem Zeitpunkt ist dann die Wikipedia weg, fast sogar die Nachrichten großteils weg, nur noch 3-4 Zeitungen übrig oder so etwas. 330 00:33:52,560 --> 00:34:00,560 Und wir haben jetzt kaum noch eine Möglichkeit als normalsterblicher Wissen der Welt beizutragen. 331 00:34:00,560 --> 00:34:02,560 Was können wir denn noch machen, um da Sachen zu beobachten? 332 00:34:02,560 --> 00:34:14,560 Das ist so ein Zyklus, der sich selber ernährt und selber dazu führt, dass wir gute Strukturen dann nicht mehr haben. 333 00:34:16,560 --> 00:34:22,560 Was wir am meisten Angst haben, ist, dass Wikipedia ganz offensichtlich ein unglaublich unwahrscheinlicher Glücksfall der Geschichte ist. 334 00:34:22,560 --> 00:34:31,560 Es gibt kaum etwas wie Wikipedia und wenn das mal weg ist, wird es wahrscheinlich nicht so einfach zurückkommen, das wieder aufzubauen. 335 00:34:31,560 --> 00:34:34,560 Absichtlich kann man das wahrscheinlich nicht machen. 336 00:34:34,560 --> 00:34:37,560 Wikipedia ist nicht absichtlich das geworden, was es ist. 337 00:34:37,560 --> 00:34:44,560 Es ist ja durch Zufälle dahineingestoppt, weil es 20 andere Projekte in dem Bereich gab, die alle gescheitert sind. 338 00:34:47,560 --> 00:34:51,560 Dass wir da sowas hinzubekommen, ist fast unmöglich. 339 00:34:51,560 --> 00:34:56,560 Und ich glaube, wenn wir Wikipedia einmal verlieren, ist es auch weg. 340 00:34:56,560 --> 00:35:06,560 Und wird stattdessen durch, wie Kevin sagt, durch irgendeine Profit orientierte Firma mit einer Lösung ersetzt, was natürlich überhaupt keine Ersetzung ist. 341 00:35:06,560 --> 00:35:18,560 Das ist das, was wir am meisten Angst machen, dass wir einfach aus ökonomischer Sicht hinweg Strukturen wie die Wikipedia nebenher kaputt machen. 342 00:35:18,560 --> 00:35:29,560 Und dass da nichts ist, womit wir das aufhalten können, weil es eben ökonomisch etwas zwingende Folgen sind in der ganzen Sache. 343 00:35:30,560 --> 00:35:38,560 Aber jetzt zum guten Teil des Vortrags, was für Visionen haben, was für Ideen haben wir, um das alles zu verhindern? 344 00:35:38,560 --> 00:35:48,560 Genau. Und zwar habe ich neben einem konstanten Szenario auch ein sogenanntes revolutionäres Szenario. 345 00:35:48,560 --> 00:35:55,560 Und zwar, wie sich Wikipedia bis 2045, wahrscheinlich schon früher, entwickeln kann. 346 00:35:55,560 --> 00:36:05,560 Und machen jetzt mal eine Annahme. Also ich will mal die Annahme machen, KI ist nicht schlau, nicht wirklich intelligent, wie der Name sagt. 347 00:36:05,560 --> 00:36:11,560 Eine KI wird immer Fehler machen. Das heißt, es wird immer möglich sein, intelligenter zu sein als die KI. 348 00:36:11,560 --> 00:36:30,560 Heute hat allerdings entwicklungsbedingt die KI leichtes Spiel, besser zu werden als die Wikipedia, weil Wikipedia selbst auch weit weg von wirklich einer guten, einer richtig guten, zuverlässigen Quelle ist. 349 00:36:30,560 --> 00:36:35,560 Mit ihren veralteten, unbelegten, fehlerhaften und manipulierten Informationen. 350 00:36:35,560 --> 00:36:40,560 Das heißt, damit Wikipedia überlebt, muss Wikipedia besser werden. 351 00:36:40,560 --> 00:36:51,560 Und ein mögliches Ziel kann auch sein, dass wir sagen, okay, der KI überlassen wir das Feld vielleicht für einen alltäglichen Gebrauch. 352 00:36:51,560 --> 00:36:57,560 Wikipedia wird allerdings dafür zur akademischen Quelle weiter ausgearbeitet und verbessert. 353 00:36:57,560 --> 00:37:03,560 Und das dann als akademische Quelle auch wirklich genutzt werden kann. 354 00:37:03,560 --> 00:37:15,560 Zugleich ist es meiner Meinung nach unbedingt auch notwendig, das Feld der KI nicht der Privatwirtschaft zu überlassen. 355 00:37:15,560 --> 00:37:23,560 Also eine Wissens-KI, die die meisten Menschen immer noch informiert, muss gemeinwohl orientiert und nicht kommerziell ausgerichtet sein. 356 00:37:23,560 --> 00:37:34,560 Ich sage, wir wollen eine Wiki-Intelligence wollen wir haben, eine Intelligence-X, also SpaceX, X statt Twitter, wollen wir nicht haben. 357 00:37:34,560 --> 00:37:42,560 So, und jetzt kommen wir zu meinen Ideen, wie sich die Wikimedia weiterentwickeln könnte, um auch 2045 noch zu bestehen. 358 00:37:42,560 --> 00:37:50,560 Ich bin, glaube ich, relativ radikal. Ich habe tatsächlich wenige Artikel in der Anfangszeit selbst mitgeschrieben. 359 00:37:50,560 --> 00:37:55,560 Ich sage, unbelegte Infos müssen aus der Wikipedia entfernt werden, konsequent. 360 00:37:55,560 --> 00:38:04,560 Aber allerdings sage ich, okay, vielleicht diskutieren wir nochmal drüber, vielleicht lassen wir nochmal ein bisschen Wasser der Iduna runterlaufen 361 00:38:04,560 --> 00:38:11,560 und schauen, dass man vielleicht mit einer KI nach möglichen Quellen auch sucht, um passende Belege zu finden, 362 00:38:11,560 --> 00:38:22,560 auf den Autorinnen noch mal die Zeit gibt, nachzureferenzieren und vorhandene Informationen zu überprüfen in der Wikipedia. 363 00:38:22,560 --> 00:38:32,560 Wir wollen in meinen Augen, ich weiß, wir sehen es viele anders, allerdings glaube ich eher, wenn Wikimedia Deutschland ist bezahlt. 364 00:38:32,560 --> 00:38:41,560 Ich würde sagen, wir brauchen inzwischen Paid Editing, weil wir sehen, wie die Userzahlen runtergehen, und zwar im gemeinwohl orientierten Sektor. 365 00:38:41,560 --> 00:38:46,560 Hier kommt das Wort wieder. Was sind es, zum Beispiel Wissenschaftsinstitute wie Hochschulen und so. 366 00:38:46,560 --> 00:38:54,560 Und das wollen wir nicht selbst bezahlen, aber wir wollen es fördern, wir wollen nicht mehr dagegen sein, wie ich den Eindruck habe, dass wir bis heute sind. 367 00:38:55,560 --> 00:39:01,560 Was noch on top gibt, Peer Review Verfahren von Wikipedia Artikeln, dass man zum Beispiel jetzt beim Klimawandel schaut, 368 00:39:01,560 --> 00:39:10,560 aber bei Covid-19, bei solchen Artikeln vielleicht später auch weniger brisante Themen, dass man die Peer Reviewen lässt 369 00:39:10,560 --> 00:39:18,560 und dann halt auch eine Bestätigung hat von Wissenschaftlerinnen, dass Wikipedia richtig ist in diesem Artikel. 370 00:39:18,560 --> 00:39:30,560 Public-Private-Partnership für eine Wikimedia-Intelligence ist denke ich notwendig, weil anders kann man so etwas nicht finanzieren. 371 00:39:30,560 --> 00:39:42,560 Aber Dani hat das gesagt, wir sind nicht Google, wir sind nicht Elon Musk, wir sind gemeinnützig, da müssen wir uns Konzepte überlegen. 372 00:39:42,560 --> 00:39:47,560 Ich weiß allerdings gerade jetzt, es gibt ja auch immer Diskussionen über den öffentlich-rechtlichen Rundpunkt, 373 00:39:47,560 --> 00:39:57,560 ne, wollen wir nicht finanzieren. Eventuell muss man dann halt auch überlegen, kommt ein Private-Private-Partnership in Frage. 374 00:39:57,560 --> 00:40:06,560 Also sozusagen zum Beispiel mit Google, weil das Ding ist, ich weiß nicht, ob jeder von Google vielleicht am Ende auch ihr Mastesfeld überlassen möchte, 375 00:40:07,560 --> 00:40:17,560 vielleicht sehen Sie da auch Positives, also sollte man sich offen lassen, wenn mit dem öffentlichen Sektor eine harsche Partnerschaft nicht möglich ist. 376 00:40:17,560 --> 00:40:27,560 Und was auch in Betracht gezogen werden sollte, wäre zumindest Teile der Wikimedia eventuell auch öffentlich-rechtlich zu machen. 377 00:40:28,560 --> 00:40:38,560 Wir haben jetzt zum Beispiel auch Wikimedia Europe gestartet, dass man sagt, okay, Wikimedia Europe ist eine öffentlich-rechtliche Institution der Europäischen Union. 378 00:40:38,560 --> 00:40:46,560 Das sind ein paar Anregungen, ich weiß, es sind viele, es sind einige und ich denke, da gibt es großen Diskussionsbedarf. 379 00:40:46,560 --> 00:40:55,560 Deswegen kommen wir zum nächsten Teil, die Diskussion, wo ich jetzt alle Punkte noch einmal separat aufgegriffen habe und euch fragen möchte. 380 00:40:56,560 --> 00:41:01,560 Also kommen wir zur dritten Frage, sollen unbelegte Infos konsequent gelöscht werden? 381 00:41:11,560 --> 00:41:14,560 Also die Antwort auf die Frage ist relativ simpel, es geht praktisch gar nicht. 382 00:41:14,560 --> 00:41:17,560 Ihr könnt nicht einfach alles Unbelegtes löschen, dann bleibt nicht mehr viel übrig. 383 00:41:17,560 --> 00:41:24,560 Es muss einen Mittelweg geben. Also wie du ja selbst schon angedeutet hast, lasst uns noch mal schauen, was wir mit den unbelegten Infos machen. 384 00:41:26,560 --> 00:41:31,560 Vielleicht auch eben zu diesem Unbelegten, was ist unbelegter? 385 00:41:31,560 --> 00:41:33,560 Da müssen wir erstmal definieren, was heißt unbelegt? 386 00:41:33,560 --> 00:41:40,560 Ist unbelegt, wenn in der Literaturliste das Werk angegeben hat, mit dem ich den Artikel geschrieben habe oder muss er definitiv fußen? 387 00:41:40,560 --> 00:41:49,560 Also zum Beispiel, das heißt zum Beispiel, der Artikel ist durchaus belegt, weil ich die Literatur angeben habe, mit dem ich geschrieben habe. 388 00:41:49,560 --> 00:41:53,560 Aber es ist halt nicht jeder Abschnitt belegt, mit welcher Seite er ist. 389 00:41:53,560 --> 00:42:02,560 Das heißt, das wäre dann sozusagen auch eine Gefahr, dass man sagen, das Artikel, die sehr wohl belegt sind, vielleicht nicht eben, das System hat es früher noch nicht gegeben. 390 00:42:02,560 --> 00:42:06,560 Das heißt, die Quellen sind durchaus genannt, aber nicht in der Form, wie man sie heute nutzt. 391 00:42:06,560 --> 00:42:13,560 Von dem her ist er schon belegt, aber vielleicht in der Sichtweise von einer heutigen Schreibweise halt anders belegt. 392 00:42:24,560 --> 00:42:31,560 Ich glaube, die Frage ist vor allen Dingen, wenn man so etwas machen wollen würde, wie würde man das denn anstellen? 393 00:42:31,560 --> 00:42:38,560 Also es wurde ja schon gesagt, wenn man jetzt quasi maschinell, botmäßig einfach alles rausschmeißt, was unbelegt ist, 394 00:42:38,560 --> 00:42:46,560 haben wir eine zerflatterte Enzyklopädie, die für niemanden mehr hilfreich ist und folglich auch von niemanden mehr gewartet werden wird. 395 00:42:46,560 --> 00:42:50,560 Also das wäre der Schritt, das ist so ein bisschen Selbstmord aus Angst vor dem Tod. 396 00:42:51,560 --> 00:43:00,560 Wenn wir sagen, wir sehen das quasi als Transformationsschritt, dass wir sagen, wir haben den Anspruch, dass alles belegt sein muss, 397 00:43:00,560 --> 00:43:04,560 dann ist mein Stand zumindest, dass wir den Anspruch eigentlich schon länger haben. 398 00:43:04,560 --> 00:43:10,560 Und das dauert Jahrzehnte, das bei den ganzen Legacy-Inhalten zu machen. 399 00:43:11,560 --> 00:43:21,560 Und dann muss ich persönlich jetzt aus meiner Erfahrung auch dafür warnen, dass man das an so Formalismen festmacht, ob eine Information belegt ist oder nicht. 400 00:43:21,560 --> 00:43:28,560 Ich habe genügend Einzelnachweise gesehen, wo der Einzelnachweis, das, was da stand, nicht wirklich gesagt hat. 401 00:43:28,560 --> 00:43:32,560 Wo auch der Einzelnachweis schlicht und ergreifend Mist war. 402 00:43:32,560 --> 00:43:37,560 Und da ist es mir lieber, da gibt es einen Fachartikel, unten drunter steht Literatur 403 00:43:37,560 --> 00:43:42,560 und es sind die drei wichtigsten wissenschaftlichen Veröffentlichungen zu dem Ding genannt und es sind keine Einzelnachweise drin. 404 00:43:42,560 --> 00:43:51,560 Aber wenn man das Buch liest, ist es deckungsgleich mit dem Artikel, als dass man so ein Sammelsurium von zueinander widersprechenden Quellen hat. 405 00:43:51,560 --> 00:43:59,560 Und das automatisiert irgendwie auch nur zu ranken und zu werten, um zu sagen, ja, ist jetzt gut oder nicht. 406 00:44:00,560 --> 00:44:04,560 Das ist ja das Schwierige. Und wir hatten ja jetzt heute früh schon diese Diskussion. 407 00:44:04,560 --> 00:44:10,560 Was ist Wikipedia überhaupt? Und ich weiß, es geht jetzt ein bisschen von der Frage da weg. 408 00:44:10,560 --> 00:44:18,560 Aber ihr habt ja eben gesagt, wenn die KI so schlau ist wie Wikipedia, wie messen wir denn dieses Schlau? 409 00:44:18,560 --> 00:44:29,560 Ist es schlau nützlich aus Nutzerinnen Sicht? Ist es schlau irgendein objektiv messbarer, quantifizierbarer Wissensbestand? 410 00:44:29,560 --> 00:44:33,560 Ist es schlau die Geschwindigkeit, in der da geantwortet wird? 411 00:44:33,560 --> 00:44:39,560 Die Umfassenheit der Inhalte, die davor liegen, die Tiefe der Inhalte, das sind ja ganz unterschiedliche Kriterien. 412 00:44:39,560 --> 00:44:45,560 Und ich könnte mir vorstellen, dass in diesen unterschiedlichen Kriterien wir und die KI dauerhaft unterschiedlich abschneiden werden. 413 00:44:45,560 --> 00:44:53,560 Und ich glaube auch, dass gewisse Dinge, gewisse Szenarien, von denen ihr da als Trussszenarien gesprochen habt, längst eingetreten sind. 414 00:44:53,560 --> 00:45:02,560 Also der Knowledge Craft beispielsweise, das war ja noch vor KI-Technologie, am Anfang zumindest, der hat uns massiv Zugriffszahlen weggegraben. 415 00:45:02,560 --> 00:45:12,560 Also dass weniger Menschen auf unsere Enzyklopädie kommen und die Inhalte dort konsumieren und sie viel häufiger. 416 00:45:12,560 --> 00:45:22,560 Also ich würde steile These, ich habe keine Zahlen dazu, aber ich würde sagen, dass schon heute die Mehrheit der Wikipedia zusammengetragenen Inhalte nicht in der Wikipedia gelesen wird. 417 00:45:22,560 --> 00:45:33,560 Bin ich mir ziemlich sicher. Und deshalb müssen wir uns vielleicht auch mal ein bisschen ehrlich machen und sagen, dass wir schon längst in diesem Zeitalter sind, 418 00:45:33,560 --> 00:45:40,560 wo es eine Abkopplung der Autorenschaft und des Mediums von seinen Inhalten gibt. 419 00:45:40,560 --> 00:45:49,560 Und das ist das, womit wir irgendwie umgehen müssen. Und ich weiß nicht, ob eine Hyperakademisierung, da bin ich zumindest skeptisch, ob das der richtige ist. 420 00:45:49,560 --> 00:45:58,560 Ja, ich meine es war in dem Fall zwei Ebenen. Einmal die Wiki-Intelligenz und einmal die akademische Wikipedia. 421 00:45:59,560 --> 00:46:10,560 Ja klar, aber es ist also ich meine der Reiz des Projekts, ohne das jetzt auswälzen zu wollen, dieses jeder kann mitmachen, das mag man jetzt kindlich und 90er Jahre Internetdenke halten. 422 00:46:10,560 --> 00:46:21,560 Aber das ist das ist der große Gründungs Mythos dieses Projekts und letzten Endes die Narrative, die nach meiner Einschätzung Großteil der Menschen, die dazu beitragen, auch dabei hält. 423 00:46:22,560 --> 00:46:26,560 In dem Augenblick, wo ich das abschneide und es gab ja verschiedene Versuche, solche Dinge zu machen. 424 00:46:26,560 --> 00:46:31,560 Ja, also solche Peer Review Encyclopedien und so was meines Wissens sind die allesamt gescheitert. 425 00:46:31,560 --> 00:46:38,560 Mein Problem ist ja, wir haben jetzt mit der Karriere was bei der Hausführung, wo eine Änderung passieren muss. 426 00:46:38,560 --> 00:46:42,560 Da sind wir uns nicht alle einig. Wer sagt, wir brauchen das nicht? 427 00:46:46,560 --> 00:46:47,560 Gehen wir hier einfach in die Fragen weiter. 428 00:46:51,560 --> 00:46:56,560 Also ja, ich hatte mich bloß verklickt. 429 00:46:56,560 --> 00:47:00,560 Eine Sache möchte ich kurz erwähnen. 430 00:47:00,560 --> 00:47:04,560 Das sind das sind Vorschläge, die von Kevin kommen. 431 00:47:04,560 --> 00:47:08,560 Also ich möchte nicht hinter hinter jeden auch meine und oder Lydia ist namens. 432 00:47:08,560 --> 00:47:13,560 Eine Sache zu den unbelegten Infos allerdings. 433 00:47:13,560 --> 00:47:19,560 Ein Forscher von Kevin war ja, wir können ja eine KI verwenden, um dann Belege zu finden und ähnliches, um das verbessern. 434 00:47:19,560 --> 00:47:23,560 Und ich muss sagen, das wird gar nicht so einfach, wie sich das anhört. 435 00:47:23,560 --> 00:47:31,560 Ich habe vor kurzem habe ich versucht, den Geburtsort einer Person herauszufinden, die in verschiedenen Wikipedia unterschiedlich angegeben war. 436 00:47:31,560 --> 00:47:42,560 Und KI und die suchen, egal ob es jetzt Google oder Bing war oder was auch immer, sind alle einfach durch Wikipedia so stark beeinflusst, 437 00:47:42,560 --> 00:47:48,560 dass es unglaublich schwierig ist, an die eigentliche Quellen einzukommen und die auch viele andere Seiten übernehmen. 438 00:47:48,560 --> 00:47:53,560 Wir haben einfach Daten aus Wikipedia heraus. Für viele Sachen ist es zu Zug schon lange abgelaufen. 439 00:47:53,560 --> 00:47:59,560 Es ist es ist schwierig, Quellen zu finden, die nicht von Wikipedia potenziell kontaminiert sind. 440 00:47:59,560 --> 00:48:06,560 Und ich glaube, dass das ist, was wir am besten machen, falls wir eine KI verwenden würden, um Quellen zu finden, 441 00:48:06,560 --> 00:48:13,560 machen wir quasi Zitokinesis auf Hyperdrive und finden dann Quellen, die eben aus der Wikipedia heraus geschehen. 442 00:48:13,560 --> 00:48:20,560 Wenn wir da nicht Menschen drin haben, der kritisch daran geht, glaube ich nicht, dass das eine gute Chance ist. 443 00:48:20,560 --> 00:48:26,560 Ich würde dem zustimmen und vielleicht, um uns ein bisschen wieder zurück zur Frage zu bringen. 444 00:48:26,560 --> 00:48:29,560 Ich bin mir auch nicht sicher, ob es wirklich hilft. 445 00:48:29,560 --> 00:48:39,560 Ich glaube, es ist unheimlich wichtig, dass Wikipedia und die anderen Wikimedia Projekte Orte sind, wo Leute verifizierbares belegtes Wissen finden. 446 00:48:39,560 --> 00:48:48,560 Gleichzeitig gibt es aber einen Grund, warum sie mehr zu JetGPT gehen. 447 00:48:48,560 --> 00:48:56,560 Und das ist nicht, weil JetGPT wahrer ist oder bessere Informationen bringt. 448 00:48:56,560 --> 00:49:05,560 Sie gehen dahin wegen Convenience, weil der Text dafür sie aufbereitet ist, auf eine Art und Weise, den sie besser verstehen können, zum Beispiel. 449 00:49:06,560 --> 00:49:12,560 Und ich glaube, wir sollten uns auch überlegen, wie man da ranlegen kann. 450 00:49:12,560 --> 00:49:15,560 Warum ist es so viel einfacher? 451 00:49:15,560 --> 00:49:23,560 Warum ist es zum Beispiel so schwer, für viele Leute einen sehr wissenschaftlich geschriebenen Wikipedia Artikel zu verstehen? 452 00:49:23,560 --> 00:49:29,560 Und kann man da ansetzen? Nur als eine Möglichkeit. 453 00:49:30,560 --> 00:49:34,560 Also wir kommen ein bisschen ab von der eigentlichen Frage, deswegen gehe ich mal zur nächsten. 454 00:49:34,560 --> 00:49:37,560 Damit wir auch ein bisschen mehr Zeit haben. 455 00:49:37,560 --> 00:49:44,560 Soll gemeinnütziges Paid Editing, also jetzt zum Beispiel die, die wir von Wissenschaft einrichten, wie Hochschulen, 456 00:49:44,560 --> 00:49:52,560 müssen besser angesehen werden, also dass wir sagen, so etwas ist in Ordnung für uns oder auch gefördert werden, wie ich es vorschlagen würde. 457 00:49:52,560 --> 00:49:54,560 Wie seht ihr das? 458 00:49:54,560 --> 00:49:57,560 Ja, ich bin auf der Suche. 459 00:49:57,560 --> 00:49:59,560 Mikro, wo ist das Mikro Wort? 460 00:50:12,560 --> 00:50:22,560 Also ich bin schon der Meinung, dass Wissen von Experten zusammengetragen werden sollte, in komplizierten Gebieten. 461 00:50:22,560 --> 00:50:31,560 Das ist also wirklich für Studenten oder für Professoren, ja, für die sollte es Paid Editing geben können. 462 00:50:31,560 --> 00:50:37,560 Ich sehe da kein Problem. Wir wollen ja Wissen fördern. 463 00:50:37,560 --> 00:50:46,560 Und ob das jetzt bezahlt oder unbezahlt ist, solange es neutral ist und solange es korrekt ist, sehe ich da kein Problem. 464 00:50:52,560 --> 00:50:54,560 Solange es deklariert ist. 465 00:51:06,560 --> 00:51:13,560 Ich würde dir als Frage, und gleich werde ich auch gleich eine Frage aus dem Chat anbrille, aber ich würde eine Gegenfrage stellen wollen. 466 00:51:13,560 --> 00:51:20,560 Also Artificial General Intelligence ist ja seit den 1950ern quasi fast fertig und auch so immer wieder mal fast fertig. 467 00:51:20,560 --> 00:51:30,560 Und habt ihr euch mal darüber Gedanken gemacht, wie es dazu kommt, dass für euch es leichter vorstellbar ist, dass jetzt wirklich AGI so wirklich fertig ist und keinen Model Collapse erleiden wird, sondern wirklich alles verändern wird. 468 00:51:30,560 --> 00:51:44,560 Dass es für euch eher vorstellbar ist, als dass man nur über Bezahlung in Zukunft seinen Unterhalt verdienen kann und leben kann und nur sich das so freieisen kann, überhaupt beizutragen für Projekte wie Wikipedia. 469 00:51:44,560 --> 00:51:52,560 Na ja, ich meine, wir haben ja gesehen, wie die Zahl der Autorinnen und Autoren zurückgegangen ist. 470 00:51:52,560 --> 00:52:06,560 Warum es für euch leichter vorstellbar ist, dass bald wirklich eine richtige Künstlichen, also eine wirkliche Artificial General Intelligence kommen wird. 471 00:52:06,560 --> 00:52:18,560 Also das ist für euch leichter vorstellbar ist, nachdem es jetzt irgendwie 80 Jahre nicht funktioniert hat, als dass es keine Alternative geben wird zu, man kann nur mit Bezahlung sich den Lebensunterhalt verdienen. 472 00:52:18,560 --> 00:52:22,560 Also, da kann ich jetzt auch nur für mich sprechen. 473 00:52:22,560 --> 00:52:28,560 Ich meine, wir sehen ja tatsächlich, dass jetzt der KI-Markt rasch voranschreitet. 474 00:52:28,560 --> 00:52:34,560 Also Chat-GVTs ist das beste Beispiel. Es hat ja jetzt auch verschiedene Abiturs geschafft. 475 00:52:34,560 --> 00:52:52,560 Und ich meine sozusagen, das Modell, dass man das mit Daten füttert und so trainiert, ist halt die Sache, wenn man es dann halt mit akademischen Daten füttert, dann kann es die natürlich auch ausspucken. 476 00:52:52,560 --> 00:52:54,560 Ich glaube, Daniel, du bist mehr Experte als ich. 477 00:52:57,560 --> 00:53:02,560 Ich stimme mit dem Kommentar. Von wem kommt der Kommentar? Ich kann es leider nicht sehen, aber der war großartig. 478 00:53:04,560 --> 00:53:06,560 Da hinten jemand. 479 00:53:07,560 --> 00:53:09,560 Der ist aus dem Chat, oder? 480 00:53:10,560 --> 00:53:12,560 Der Kommentar ist großartig. 481 00:53:12,560 --> 00:53:14,560 Danke, Daniel. Hallo, grüße Femestika hier. 482 00:53:14,560 --> 00:53:22,560 Ich stimme dir vollkommen zu. Ich denke nicht, dass AGE um die Ecke ist. 483 00:53:22,560 --> 00:53:31,560 Ich denke, dass da zurzeit sehr viel mit heißem Wasser gekocht wird, was gar nicht so, dass da sehr viel Dampf dabei ist. 484 00:53:31,560 --> 00:53:39,560 Ja, Sachen werden sich auf alle Fälle ändern, überhaupt keine Frage. Aber nicht so grundlegend, dass wir alles umwerfen müssen. 485 00:53:40,560 --> 00:53:42,560 Paid Editing macht mir unglaublich viele Bauchschmerzen. 486 00:53:43,560 --> 00:53:54,560 Vor allem wegen der Ergebnisse aus der Wissenschaft, die halt zeigen, dass Mixed Incentives Modelle, also Modelle, wo einige Leute freiwillig beitragen, andere Leute bezahlt werden, 487 00:53:54,560 --> 00:53:59,560 zu unglaublichen Schwierigkeiten bei der Motivation der Unbezahlten führt. 488 00:53:59,560 --> 00:54:02,560 Und wir haben das wieder und wieder gesehen in verschiedenen Bereichen. 489 00:54:02,560 --> 00:54:10,560 Das ist sehr, sehr schwierig, diese Sachen zu mischen und trotzdem die Motivation der freiwilligen, der unbezahlten Mitarbeiter aufrechtzuerhalten. 490 00:54:10,560 --> 00:54:22,560 Und ich glaube, wenn wir jetzt irgendwie 100 bezahlte Mitarbeiter reinbringen und dafür 10.000 unbezahlte verlieren, ist das nicht unbedingt ein Vorteil. 491 00:54:22,560 --> 00:54:35,560 Ich glaube, das Ziel der Wikipedia ist es, dass jeder beitragen kann und hinzufügen kann. 492 00:54:35,560 --> 00:54:42,560 Und wenn wir an der Motivation arbeiten, würde ich vorstellen, dass wir unglaublich vorsichtig da rangehen. 493 00:54:42,560 --> 00:54:57,560 Und wenn wir so etwas wie AGI haben, sollten wir uns überlegen, ob wir nicht eine Grundlegendierung unserer ökonomischen Struktur brauchen. 494 00:54:57,560 --> 00:55:02,560 Und ein bisschen mehr Star Trek und ein bisschen weniger Terminator, das wäre schon ganz cool. 495 00:55:02,560 --> 00:55:18,560 Ich muss jetzt tatsächlich ein bisschen sprengen hier, weil alle die Fragen oder die Vorschläge, die jetzt hier quasi auf dem Tisch liegen, 496 00:55:18,560 --> 00:55:22,560 das sind die Diskussionen, die wir eigentlich seit Larry Sänger diskutieren hier. 497 00:55:22,560 --> 00:55:27,560 Wir machen wieder das Gleiche. Wir sagen, ja, das muss akademischer werden. 498 00:55:27,560 --> 00:55:32,560 Wir müssen den Nachweis, das ist das Problem. Alle diese Dinge sind tausendmal durchdiskutiert worden. 499 00:55:32,560 --> 00:55:39,560 Das denke ich mir, das ist doch nicht die Antwort auf die Frage, wenn es da irgendwie AI auf der anderen Seite ist. 500 00:55:39,560 --> 00:55:49,560 Der Mehrwert von Wikipedia und den ganzen Schwesterprojekten ist doch AI. Es geht doch darum, menschenschlauer zu machen. 501 00:55:49,560 --> 00:55:56,560 Das ist ein riesiger Lernprozess. Wir haben es heute in der Früh gehört, als gesagt worden ist, das Aushandeln von Wissen ist der entscheidende Punkt. 502 00:55:56,560 --> 00:56:01,560 Oder ist ein Einstellungsmerkmal von Wikipedia. Das kriegst du sonst nirgendwo in dieser Form. 503 00:56:01,560 --> 00:56:08,560 Und da sind riesige Lernprozesse dahinter, die permanent passieren, die hier bei uns passieren, mit Leuten da draußen passieren. 504 00:56:08,560 --> 00:56:18,560 Und eine Idee oder der Mehrwert ist ja auch, dass Leute in der Lage sind, da draußen das zu nutzen, selber schlau zu werden, sich selber auch zu informieren. 505 00:56:18,560 --> 00:56:22,560 Und die Frage, ist das immer schon die fertige Antwort, war noch nie die Antwort von Wiki. 506 00:56:22,560 --> 00:56:28,560 Wiki ist immer ein Tool, um an irgendwas zu arbeiten und weiterzuentwickeln und natürlich auch zu belegen. 507 00:56:28,560 --> 00:56:40,560 Die Frage, die wir uns stellen müssen, ist, inwieweit kann uns die KI helfen, diese unendliche Rödelarbeit abzunehmen, die an vielen Stellen eben passieren. 508 00:56:40,560 --> 00:56:48,560 Ich wollte vorher den Witz machen, vielleicht kann die KI wenigstens die Löschdiskussion führen, weil es kommt nämlich in immer dieselbe Schmarrn. 509 00:56:48,560 --> 00:56:54,560 Und dann sollen sie halt die Löschdiskussion mit irgendwelchen Unternehmen führen, die versuchen, irgendwie ihr Zeug reinzubringen. 510 00:56:54,560 --> 00:57:03,560 Ich bin ja selber Opfer und Täter auch. Also insofern, das ist ein bisschen witzig jetzt, aber ernsthaft, ist das, was ist revolutionär an der Stelle? 511 00:57:03,560 --> 00:57:13,560 Das Revolutionäre an Wikipedia war nie im Prinzip, das digitale Brockhaus oder das digitale Fachlexikon für Medizin zu werden, 512 00:57:13,560 --> 00:57:18,560 sondern Kommunikation, wissensbasierte Kommunikation zu organisieren. 513 00:57:18,560 --> 00:57:30,560 Und wovor wir Angst haben, ist, es ist nicht mehr sichtbar, wir haben Angst, andere Sachen sind nur convenient, sind also schöner zu benutzen, sind leicht in der Sprache, sind schneller. 514 00:57:30,560 --> 00:57:38,560 Aber das kann uns doch alles helfen. Ich meine, da müssen wir jetzt wirklich nachdenken und sagen, okay, warum gibt es von dem Artikel nicht eine schöne Zusammenfassung vorne dran? 515 00:57:38,560 --> 00:57:45,560 Das ist ja das, was Danny letztlich dann sagt, eine Kinder Wikipedia, die kann mir eine KI schreiben. 516 00:57:45,560 --> 00:57:49,560 Das kann sie. Und da kann ich es wirklich saugut nutzen. 517 00:57:49,560 --> 00:58:00,560 Und deswegen war ich dafür, in der ganzen Stoßrichtung dieser Fragestellung, sich sozusagen wieder zurückzubewegen auf die Diskussion, die wir 2001 345 geführt haben. 518 00:58:00,560 --> 00:58:07,560 Und zu sagen, okay, wir müssen die Diskussion von 2023 führen und dürfen ruhig auch echt. 519 00:58:07,560 --> 00:58:13,560 Ja, das ist nicht nur Idealismus, das ist wirklich revolutionär und das muss man weiterführen. 520 00:58:13,560 --> 00:58:17,560 Und da kann uns die KI an manchen Stellen helfen und fertig. 521 00:58:17,560 --> 00:58:19,560 Also lasst uns vorwärts gehen. 522 00:58:19,560 --> 00:58:29,560 Ich komme einfach mal zur nächsten Frage. 523 00:58:29,560 --> 00:58:36,560 Dann kann ich ja auch noch mal auf die vorherige Frage zurückkommen. 524 00:58:36,560 --> 00:58:42,560 Die nächste Frage wäre, haltet ihr sinnvoll hier verfahren in Wikipedia ein zu finden? 525 00:58:42,560 --> 00:58:44,560 Hatten wir auch teilweise schon andiskutiert. 526 00:58:44,560 --> 00:58:49,560 Da ich auf den Hochschulquartext eingehen wollte, trifft sich das vielleicht ganz gut. 527 00:58:49,560 --> 00:59:02,560 Also als jemand, der mal versucht hat, das in der Hochschule zu implementieren, mit Studis, die dann halt Artikel zu dem Fachgebiet, in dem Fall Design und UX, schreiben sollten, weiß ich, dass es ein bisschen mühselig ist. 528 00:59:02,560 --> 00:59:05,560 Das waren jetzt Bachelor-Studenten an der Fachhochschule. 529 00:59:05,560 --> 00:59:07,560 Da ist es wahrscheinlich noch eher zu implementieren. 530 00:59:07,560 --> 00:59:16,560 Ich glaube, wir tun gut daran, wenn wir uns immer mal wieder fragen, warum sollen Menschen welche Dinge in der Wikipedia oder mit der Wikipedia machen? 531 00:59:16,560 --> 00:59:19,560 Was ist die intrinsische Motivation von Menschen? 532 00:59:19,560 --> 00:59:22,560 Also klar, Geld ist eine intrinsische Motivation. 533 00:59:22,560 --> 00:59:30,560 Aber wenn ich jetzt in der Hochschule sage, hey, ihr kriegt Trittmittel und schreibt dafür Wikipedia Artikel, dann gibt es ja trotzdem noch andere Motivationen, die die haben. 534 00:59:30,560 --> 00:59:33,560 Und wir haben ja die total genannten Motivationen, die wir haben. 535 00:59:33,560 --> 00:59:40,560 Und das ist für jeden Wissenschaftler da draußen in irgendeiner Hochschule dieses Landes im Endeffekt eine Art Berufsverbot. 536 00:59:40,560 --> 00:59:50,560 Also wir erwarten von, dass sie das, was sie machen, wissen, schaffen, nicht machen, sondern das, was wir machen, nämlich Wissen zusammen tragen. 537 00:59:50,560 --> 00:59:59,560 Und es liegt, glaube ich, im im Sinn und der Idee von Forschung und Wissenschaft, dass es eine Art Berufsverbot ist. 538 00:59:59,560 --> 01:00:08,560 Es liegt, glaube ich, im im Sinn und der Idee von Forschung und Wissenschaft, dass sie eben das macht, Wissen schaffen und neu aushandeln. 539 01:00:08,560 --> 01:00:12,560 Aber die Kanonisierung dieses Wissens, das ist ein ganz anderer Schritt. 540 01:00:12,560 --> 01:00:15,560 Die schreiben Primär- und Sekundärliteratur maximal. 541 01:00:15,560 --> 01:00:18,560 Wir sind aber im Tertiärliteratursektor. 542 01:00:18,560 --> 01:00:21,560 Wir sind im Zusammentragen dessen, was da geschrieben wird. 543 01:00:21,560 --> 01:00:28,560 Das heißt, eigentlich sollte es überhaupt nicht mehr notwendig sein, bei uns zu peer reviewn, weil die Sachen, also zumindest was wissenschaftliche Studien angeht, 544 01:00:28,560 --> 01:00:32,560 die wir zusammentragen, idealerweise peer reviewed sind. 545 01:00:32,560 --> 01:00:41,560 Und deshalb sehe ich es auch außerordentlich skeptisch, so zu tun, als könnten wir vergleichbare Prozesse hier implementieren. 546 01:00:41,560 --> 01:00:45,560 Also wir sind keine Open Access Plattform für wissenschaftliche Inhalte. 547 01:00:45,560 --> 01:00:54,560 Und wir können und werden es wahrscheinlich auch nie werden, weil wir die Infrastruktur dafür nicht in der Breite zur Verfügung stellen können, 548 01:00:54,560 --> 01:00:58,560 dass wir die reine Quantität an Inhalten, die wir heute haben. 549 01:00:58,560 --> 01:01:01,560 Also wir reden von vier Millionen Artikel. 550 01:01:01,560 --> 01:01:08,560 Also vier Millionen Artikel, in denen gleichzeitig quasi ein peer review stattfindet, halte ich für ziemlich unrealistisch. 551 01:01:08,560 --> 01:01:13,560 Und alles, was das runterschrumpft, tut einen großen Nutzen dieses Projekts runterfahren. 552 01:01:13,560 --> 01:01:18,560 Und dann bliebe noch als letztes die Frage, wer ist denn da überhaupt ein peer? 553 01:01:18,560 --> 01:01:25,560 Also muss ich promoviert sein, um beispielsweise einen Artikel über Nacktschnecken mit editieren zu dürfen? 554 01:01:25,560 --> 01:01:30,560 Also reicht da Biologie oder kann ich da noch Geisteswissenschaftler sein? 555 01:01:35,560 --> 01:01:39,560 Also das macht ein so großes Fass auf, dass ich nicht glaube, dass es uns weiterbringt. 556 01:01:39,560 --> 01:01:46,560 Ich meine, das ist jetzt nicht für alle vier Millionen Artikel gedacht, aber jetzt sagen wir mal, die kritisch sind. 557 01:01:46,560 --> 01:01:48,560 Also bestimmte Themen. 558 01:01:57,560 --> 01:02:04,560 Gleichzeitig höre ich jeder WikiCon, wenn ich frage Autoren schwund, es geht immer um das Thema Autoren schwund, höre ich immer wieder. 559 01:02:04,560 --> 01:02:13,560 Wir wünschen uns neue Autoren und Autorinnen, die Fachleute sind und in ihrem Fachbereich gute Artikel sauber schreiben können. 560 01:02:13,560 --> 01:02:17,560 Das ist der Wunsch, den ich immer wieder höre aus der Wikipedia Community. 561 01:02:17,560 --> 01:02:21,560 Renten haben wir genug, Studenten haben wir genug, aber wir brauchen Fachleute. 562 01:02:21,560 --> 01:02:25,560 Aber bezahlen wollen wir sie nicht. 563 01:02:25,560 --> 01:02:27,560 Ist ein Widerspruch. 564 01:02:28,560 --> 01:02:32,560 Es gibt und ich bin total bei auch bei Danny, wo ich sage, in Riesengefahr. 565 01:02:32,560 --> 01:02:39,560 Aber es gibt ein paar Modelle, Kultur- und Gedächtnisinstitutionen, zum Beispiel Museen denken sich nicht neues Wissen aus. 566 01:02:39,560 --> 01:02:41,560 Museen dokumentieren auch nur. 567 01:02:41,560 --> 01:02:43,560 Das passt zu dem, was wir machen. 568 01:02:43,560 --> 01:02:52,560 Und es gibt auch schon Projekte, wo in einem Museum jemand sitzt, der indirekt durchs Museum nicht von Wikimedia Deutschland dafür bezahlt wird, auch in Wikipedia zu helfen. 569 01:02:52,560 --> 01:02:54,560 Öffentliches Geld, öffentliches Gut. 570 01:02:54,560 --> 01:02:58,560 Und der Edit anlandet dann nicht auf der Website des Museums, sondern in Wikipedia. 571 01:02:58,560 --> 01:03:02,560 Gibt es schon kleine Modelle, wo das probiert wird? 572 01:03:02,560 --> 01:03:04,560 Vielleicht weiter in der Richtung denken. 573 01:03:13,560 --> 01:03:21,560 So, da haben wir gedacht schon, bei Wikis Journalartikeln zum Beispiel, da werden Artikeln nummern, im Wikis Journal veröffentlicht und hier reviewed. 574 01:03:21,560 --> 01:03:23,560 Da haben wir gedacht schon. 575 01:03:24,560 --> 01:03:27,560 So, das kann man machen, wenn man will, zu der Frage. 576 01:03:31,560 --> 01:03:39,560 Genau, Wikis Journal, dieser wissenschaftliche Journal, da werden Artikeln nummern und dann schon Artikel veröffentlicht und die werden auch peer reviewed. 577 01:03:39,560 --> 01:03:41,560 Also, wir halten das sinnvoll. 578 01:03:41,560 --> 01:03:43,560 Wir machen das ja schon. 579 01:03:43,560 --> 01:03:44,560 Soll da die Frage sein? 580 01:03:44,560 --> 01:03:46,560 Wir können uns da weiterhören oder nicht? 581 01:03:47,560 --> 01:03:52,560 Ja, aber das ist ja genau der Punkt, dass du mit so einem peer review dann einen Artikel einfrieren würdest. 582 01:03:52,560 --> 01:03:57,560 Und wenn wir einfach nur die Wikipedia einfrieren und begraben wollen, dann können wir es auch. 583 01:03:57,560 --> 01:03:59,560 Also, das ist ja genau das, was wir nicht wollen. 584 01:03:59,560 --> 01:04:06,560 Ich habe gesagt, dass wir ein Zeitstempel drauf haben, die halt bei Lesenswerte von dieser Artikel, wo in dieser Form peer reviewed wird. 585 01:04:06,560 --> 01:04:12,560 Da wird das so gemacht, da nimmt man einen Artikel und du z.B. im Journal, da wird im Journal veröffentlicht und dann wieder in Wikipedia. 586 01:04:12,560 --> 01:04:13,560 Du darfst aber wieder weiter editieren. 587 01:04:13,560 --> 01:04:14,560 Das ist kein Problem. 588 01:04:15,560 --> 01:04:17,560 Es wird einfach ein Zeitstempel gemacht. 589 01:04:17,560 --> 01:04:20,560 Genau, da ist ein peer reviewed worden, aber du kannst ja wieder weitermachen. 590 01:04:24,560 --> 01:04:26,560 Und bezüglich deiner Frage mit den Peers. 591 01:04:26,560 --> 01:04:32,560 Die Peers sind Leute in dem Bereich, die auch aktiv sind, die sich ein bisschen auskennen. 592 01:04:32,560 --> 01:04:37,560 Und zu deinem Aspekt mit den Fachleuten, die Fachperson bist du selbst. 593 01:04:37,560 --> 01:04:39,560 Weil du selbst sicher schon Artikel gelesen hast. 594 01:04:39,560 --> 01:04:48,560 Und am Ende, weil man exzellenten Artikel ist, wenn man alles zusammengefasst hat, ist da führend Experte, man selbst, weil man weiß ja alles über das Gebiet. 595 01:04:48,560 --> 01:04:50,560 Und es gibt keinen anderen mehr. 596 01:05:06,560 --> 01:05:08,560 Also gut, gehen wir einfach weiter. 597 01:05:09,560 --> 01:05:16,560 Was haltet ihr davon, wenn die WMF selbst an einer KI durch z.B. Public Private Partnership arbeitet? 598 01:05:16,560 --> 01:05:24,560 Also gut ist es vielleicht jetzt sehr weit in Zukunft Musik, aber ich meine, es soll ja jetzt erstmal eine Diskussion sein. 599 01:05:24,560 --> 01:05:30,560 Es geht, projiziert ist jetzt 2045, nicht 2025, das wollte ich auch mal gesagt haben. 600 01:05:39,560 --> 01:05:41,560 Da meldet sich jemand. 601 01:05:41,560 --> 01:05:43,560 Ah sorry. 602 01:05:47,560 --> 01:05:53,560 Ich bin jetzt nicht sicher, ob das noch zur Wikipedia gehört oder eher zur Wikidata. 603 01:05:53,560 --> 01:05:57,560 Aber soviel ich weiß, gibt es jetzt schon Apps. 604 01:05:57,560 --> 01:06:04,560 Da kann ich, wenn ich wandere, das hochhalten und mit der Kamera filmen. 605 01:06:04,560 --> 01:06:10,560 Und es wird eingeblendet, wie der BR oder was ich da vor mir habe, wie das heisst. 606 01:06:10,560 --> 01:06:13,560 Ich denke, das hat mit KI zu tun. 607 01:06:13,560 --> 01:06:15,560 Bin ich ganz sicher. 608 01:06:15,560 --> 01:06:23,560 Also wo ich raus will, das wäre eine Möglichkeit, übrigens in der Schweiz gratis, öffentlich Open Data. 609 01:06:23,560 --> 01:06:31,560 Das wäre ein Weg, jetzt Wikidata ein bisschen interessanter oder zugänglicher zu machen für Fotografen. 610 01:06:31,560 --> 01:06:35,560 Dann wissen Sie sofort, wie der Berg heisst oder der Fluss. 611 01:06:35,560 --> 01:06:40,560 Das ist so eine Idee, die ich habe. 612 01:06:40,560 --> 01:06:45,560 Die offenbar in zwei, drei Jahren vielleicht möglich. 613 01:06:55,560 --> 01:06:57,560 Ich habe es mal ganz kurz versprochen. 614 01:06:57,560 --> 01:07:07,560 Ich halte den Ansatz, darüber nachzudenken, ob man unterstützen kann, eine Open Source KI oder eine gemeinnützige KI zu machen, für ganz hervorragend. 615 01:07:07,560 --> 01:07:09,560 Die Frage, ob es geht. 616 01:07:09,560 --> 01:07:13,560 Aber wir wissen ja, dass es im wissenschaftlichen Bereich die Leute auch das Problem haben. 617 01:07:13,560 --> 01:07:18,560 Die würden ja ganz gerne mit solchen großen Language Models arbeiten oder mit anderen Sachen. 618 01:07:18,560 --> 01:07:23,560 Die kriegen sie teilweise nicht, weil sie eben schon wieder privatisiert sind oder von großen Läden gemacht worden sind. 619 01:07:23,560 --> 01:07:28,560 Ob das funktioniert, weil die stecken dann natürlich Milliarden rein in solche Projekte, die privaten. 620 01:07:28,560 --> 01:07:30,560 Das ist eben die Frage. 621 01:07:30,560 --> 01:07:34,560 Da geht es wahrscheinlich darauf raus und sagt, kann man das vielleicht mit private gemeinsam machen. 622 01:07:34,560 --> 01:07:36,560 Aber ich würde es auf jeden Fall sondieren. 623 01:07:36,560 --> 01:07:41,560 Vielleicht kann auch Danny oder Lydia sagen, ob es da schon irgendwelche Sondierungen gibt in der Richtung. 624 01:07:41,560 --> 01:07:44,560 Ich fände es grundsätzlich gut. 625 01:07:44,560 --> 01:07:47,560 Da gibt es ja auch schon Namen dafür, oder? 626 01:07:47,560 --> 01:07:49,560 Das wäre dann die VKI. 627 01:07:49,560 --> 01:07:51,560 Ich habe die VKI Intelligence. 628 01:07:52,560 --> 01:07:56,560 Also wir müssen uns gar nicht so groß umdenken, wie das Ding heißen soll. 629 01:07:56,560 --> 01:08:00,560 Also gibt es dazu schon irgendwelche Sondierungen oder Ideen? 630 01:08:00,560 --> 01:08:08,560 Weil es sind ja mehrere Leute gerade dran, an solchen Open Source oder gemeinnützigen Modellen. 631 01:08:10,560 --> 01:08:13,560 Ja, also von der Wikimedia Deutschland Seite aus. 632 01:08:13,560 --> 01:08:19,560 Wir haben zum Beispiel uns als Teil von einem Forschungskonsortium beworben. 633 01:08:19,560 --> 01:08:23,560 Leider hat das Konsortium den Award nicht bekommen. 634 01:08:23,560 --> 01:08:38,560 Um so ein europäisches Chet-GPT zu bauen, was dann unter anderem mehr in Richtung offen zugänglich und so weiter gegangen wäre. 635 01:08:38,560 --> 01:08:44,560 Also da gibt es durchaus schon Bestrebungen und Sondierungen. 636 01:08:44,560 --> 01:08:46,560 Wie kann sowas aussehen? 637 01:08:46,560 --> 01:08:56,560 Das andere, was glaube ich viel mehr passieren wird, ist jetzt, dass der Aufwand, um so ein Modell zu trainieren, 638 01:08:56,560 --> 01:09:01,560 dass da sehr viele Leute sehr viel Zeit reinstecken, das zu reduzieren. 639 01:09:01,560 --> 01:09:07,560 Weil selbst für die großen Firmen ist das eine ganze Menge Geld. 640 01:09:07,560 --> 01:09:15,560 Und hoffentlich kann da mehr als nur so eine große Firma von profitieren. 641 01:09:15,560 --> 01:09:17,560 In der Zukunft. 642 01:09:25,560 --> 01:09:27,560 Dann nächster Punkt. 643 01:09:27,560 --> 01:09:29,560 Er könnte noch mit jedem Punkt. 644 01:09:29,560 --> 01:09:35,560 Es läuft ein bisschen schwieriger mit einer ... 645 01:09:35,560 --> 01:09:37,560 Eine Sekunde. 646 01:09:37,560 --> 01:09:39,560 Ja klar, eine Sekunde. 647 01:09:39,560 --> 01:09:47,560 Was würden ihr dann zum Beispiel versuchen, wenn man sich auch eine private Partnership überlegt? 648 01:09:47,560 --> 01:09:51,560 Also zum Beispiel eventuell mit Google, muss man nicht sagen. 649 01:09:51,560 --> 01:09:55,560 Könnte aber auch noch mal zum Public-Private-Partnership zurückkommen. 650 01:09:57,560 --> 01:10:01,560 Das ist sehr gut, dass du die Frage 7 auch noch eingebracht hast. 651 01:10:01,560 --> 01:10:03,560 Weil das passt wieder in die vorige Frage rein. 652 01:10:03,560 --> 01:10:08,560 Also ich meine, mit Vigidata könnte man auch sagen, das ist gerade so ein bisschen die Wiederentdeckung der Symbolik AI, 653 01:10:08,560 --> 01:10:15,560 mit der 1970 so direkt die generelle künstliche Illigenz vor der Türe war, bis sie 1990 gegen die Wand gefahren ist, so mehr oder weniger. 654 01:10:15,560 --> 01:10:21,560 Und jetzt nehmt ihr aber als gegeben an, dass Public-Private-Partnerships und Private-Private-Partnerships 655 01:10:21,560 --> 01:10:27,560 so auch in Zukunft das Mittel der Wahrheit sein werden, trotz oder wegen der Ankunft der generellen künstlichen Illigenz. 656 01:10:27,560 --> 01:10:34,560 Also wäre eine tolle Frage nicht andersherum zu sagen, sollte die WMF zum Beispiel da irgendwie hingehen, 657 01:10:34,560 --> 01:10:42,560 dass eben nicht private Entitäten solche Modelle nehmen, privatisieren und damit allein ihre Marktmacht dominieren lassen könnten? 658 01:10:44,560 --> 01:10:47,560 Ich meine, Wikimedia ist ja auch privat. 659 01:10:47,560 --> 01:10:49,560 Das ist auch eine Annahme. 660 01:10:49,560 --> 01:10:53,560 Genau, aber in dem Fall mache ich Private WMF. 661 01:10:53,560 --> 01:10:58,560 Genau, vielleicht Danny oder Lydia, ihr seid ja von den Wikimedia. 662 01:10:59,560 --> 01:11:01,560 Ich würde auch fragen. 663 01:11:01,560 --> 01:11:12,560 Also prinzipiell, es ist, wenn du eine, gegeben, dass die WMF bestimmte Regeln hat, wie zum Beispiel, Ergebnisse müssen immer frei verfügbar sein, nicht wahr? 664 01:11:12,560 --> 01:11:17,560 Würde eine Patenschaft, wie zum Beispiel mit Google, um ein Foundation-Modell zu trainieren, bedeuten, 665 01:11:18,560 --> 01:11:29,560 dass Google uns wahrscheinlich dann 100 bis 200 Millionen Dollar da reinsteckt, um ein Foundation-Modell zu trainieren, um es dann der Allgemeinen zur Verfügung zu stellen. 666 01:11:29,560 --> 01:11:31,560 Ich finde die Idee großartig. 667 01:11:31,560 --> 01:11:33,560 Ich fände es toll. 668 01:11:33,560 --> 01:11:39,560 Warum sollten wir nicht 200 Millionen von Google nehmen und so verwenden, um ein öffentliches Ergebnis zu haben? 669 01:11:39,560 --> 01:11:42,560 Ich halte es nicht für sonderlich wahrscheinlich, dass das passieren kann. 670 01:11:43,560 --> 01:11:55,560 Also mit den Voraussetzungen, die Wikimedia Foundation hat an potenzielle private Partner, habe ich Schwierigkeiten zu sehen, wie wir so etwas zusammen machen können, um ehrlich zu sein. 671 01:11:55,560 --> 01:12:00,560 Und wer da bereit wäre, so viel Geld da reinzustecken, um es dann quasi in die Öffentlichkeit zu geben. 672 01:12:01,560 --> 01:12:04,560 Das geht natürlich mit Kompromissen nur möglich, schätze ich mal. 673 01:12:04,560 --> 01:12:06,560 Ich sehe das ähnlich wie Delhi West, 674 01:12:06,560 --> 01:12:12,560 sollte jetzt zum Beispiel Google mit uns und mit der Wikimedia Foundation zusammenarbeiten, wollen uns Geld geben. 675 01:12:12,560 --> 01:12:19,560 Sie haben ja schon Ihr KI-Technik-Kultur und das wird ja auch schon trainiert. 676 01:12:19,560 --> 01:12:22,560 Und das ist ja auch schon ein sehr, sehr wichtiges Thema. 677 01:12:22,560 --> 01:12:24,560 Und ich finde, es ist ein sehr wichtiges Thema. 678 01:12:24,560 --> 01:12:26,560 Und ich finde, es ist ein sehr wichtiges Thema. 679 01:12:26,560 --> 01:12:28,560 Und ich finde, es ist ein sehr wichtiges Thema. 680 01:12:28,560 --> 01:12:30,560 Und ich finde, es ist ein sehr wichtiges Thema. 681 01:12:30,560 --> 01:12:34,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 682 01:12:34,560 --> 01:12:36,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 683 01:12:36,560 --> 01:12:38,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 684 01:12:38,560 --> 01:12:40,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 685 01:12:40,560 --> 01:12:42,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 686 01:12:42,560 --> 01:12:44,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 687 01:12:44,560 --> 01:12:46,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 688 01:12:46,560 --> 01:12:48,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 689 01:12:48,560 --> 01:12:50,560 Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen. 690 01:12:50,560 --> 01:12:52,560 Ich habe in der Literatur Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, 691 01:12:52,560 --> 01:12:54,560 Ich habe in der Literatur Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, 692 01:12:54,560 --> 01:12:56,560 ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, 693 01:12:56,560 --> 01:12:58,560 ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, 694 01:12:58,560 --> 01:13:00,560 ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, 695 01:13:00,560 --> 01:13:02,560 ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, 696 01:13:02,560 --> 01:13:04,560 ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, 697 01:13:04,560 --> 01:13:06,560 ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, so ein Clear-Tool wie GPC zu programmieren ohne Wikimedia. 698 01:13:06,560 --> 01:13:08,560 so ein Clear-Tool wie GPC zu programmieren ohne Wikimedia. 699 01:13:08,560 --> 01:13:10,560 15% Datenbestand ist wahrscheinlich für die Wikimedia das wichtigste Tool, 700 01:13:10,560 --> 01:13:12,560 15% Datenbestand ist wahrscheinlich für die Wikimedia das wichtigste Tool, 701 01:13:12,560 --> 01:13:14,560 um die ganzen Box- oder TM-Modelle zu trainieren. 702 01:13:14,560 --> 01:13:16,560 um die ganzen Box- oder TM-Modelle zu trainieren. 703 01:13:16,560 --> 01:13:18,560 um die ganzen Box- oder TM-Modelle zu trainieren. 704 01:13:18,560 --> 01:13:20,560 Die Frage hier ist sehr skeptisch, weil die nutzen unsere Daten schon, 705 01:13:20,560 --> 01:13:22,560 Die Frage hier ist sehr skeptisch, weil die nutzen unsere Daten schon, 706 01:13:22,560 --> 01:13:24,560 die Frage hier ist sehr skeptisch, weil die nutzen unsere Daten schon, 707 01:13:24,560 --> 01:13:26,560 deshalb sollten sie uns noch Papiergeld geben, für etwas, das sie sowieso gratis kostenlos kriegen. 708 01:13:26,560 --> 01:13:28,560 deshalb sollten sie uns noch Papiergeld geben, für etwas, das sie sowieso gratis kostenlos kriegen. 709 01:13:28,560 --> 01:13:30,560 Ich möchte mal eine Analogie bringen. 710 01:13:30,560 --> 01:13:32,560 Ich möchte mal eine Analogie bringen. 711 01:13:32,560 --> 01:13:34,560 Ich möchte mal eine Analogie bringen. 712 01:13:34,560 --> 01:13:36,560 Ich möchte mal eine Analogie bringen. 713 01:13:36,560 --> 01:13:38,560 Ich möchte mal eine Analogie bringen. 714 01:13:38,560 --> 01:13:40,560 Ich möchte mal eine Analogie bringen. 715 01:13:40,560 --> 01:13:42,560 Ich möchte mal eine Analogie bringen. 716 01:13:42,560 --> 01:13:44,560 Ich möchte mal eine Analogie bringen. 717 01:13:44,560 --> 01:13:46,560 Ich möchte mal eine Analogie bringen. 718 01:13:46,560 --> 01:13:48,560 Ich möchte mal eine Analogie bringen. 719 01:13:48,560 --> 01:13:50,560 Ich möchte mal eine Analogie bringen. 720 01:13:50,560 --> 01:13:52,560 Ich möchte mal eine Analogie bringen. 721 01:13:52,560 --> 01:13:54,560 Ich möchte mal eine Analogie bringen. 722 01:13:54,560 --> 01:13:56,560 Ich möchte mal eine Analogie bringen. 723 01:13:56,560 --> 01:13:58,560 Ich möchte mal eine Analogie bringen. 724 01:13:58,560 --> 01:14:00,560 Ich möchte mal eine Analogie bringen. 725 01:14:00,560 --> 01:14:02,560 Ich möchte mal eine Analogie bringen. 726 01:14:02,560 --> 01:14:04,560 Ich möchte mal eine Analogie bringen. 727 01:14:04,560 --> 01:14:06,560 Ich möchte mal eine Analogie bringen. 728 01:14:06,560 --> 01:14:08,560 Ich möchte mal eine Analogie bringen. 729 01:14:08,560 --> 01:14:10,560 Ich möchte mal eine Analogie bringen. 730 01:14:10,560 --> 01:14:12,560 Ich möchte mal eine Analogie bringen. 731 01:14:12,560 --> 01:14:14,560 Ich möchte mal eine Analogie bringen. 732 01:14:14,560 --> 01:14:16,560 Ich möchte mal eine Analogie bringen. 733 01:14:16,560 --> 01:14:18,560 Ich möchte mal eine Analogie bringen. 734 01:14:18,560 --> 01:14:20,560 Ich möchte mal eine Analogie bringen. 735 01:14:20,560 --> 01:14:22,560 Ich möchte mal eine Analogie bringen. 736 01:14:22,560 --> 01:14:24,560 Ich möchte mal eine Analogie bringen. 737 01:14:24,560 --> 01:14:26,560 Ich glaube jetzt nochmal einen weiteren Punkt. 738 01:14:26,560 --> 01:14:28,560 Was haltet ihr von einer teilweise 739 01:14:28,560 --> 01:14:30,560 öffentlich-rechtlichen Wikimedia 740 01:14:30,560 --> 01:14:32,560 zur Entwicklung einer Wikintelligence 741 01:14:32,560 --> 01:14:34,560 bzw. zur Verbesserung der Qualität 742 01:14:34,560 --> 01:14:36,560 in der Wikipedia? 743 01:14:36,560 --> 01:14:38,560 Gerne auch nochmal zurückgreifen 744 01:14:38,560 --> 01:14:40,560 mit den beiden vorherigen Fragen. 745 01:14:40,560 --> 01:14:42,560 Wie kann ich das mal definieren bitte? 746 01:14:42,560 --> 01:14:44,560 Wikintelligence war einfach eine Wikipedia. 747 01:14:44,560 --> 01:14:46,560 Also öffentlich-rechtlich ist einfach so ein 748 01:14:46,560 --> 01:14:48,560 ähnliches Modell wie 749 01:14:48,560 --> 01:14:50,560 die Rundfunkanstalten. 750 01:14:50,560 --> 01:14:52,560 Nur halt in dem Fall, 751 01:14:52,560 --> 01:14:54,560 wenn man Wikimedia Europe nimmt, 752 01:14:54,560 --> 01:14:56,560 wie will mein Beispiel halt eine Art 753 01:14:56,560 --> 01:15:00,560 öffentlich-rechtliche europäische Wikimedia. 754 01:15:00,560 --> 01:15:02,560 Ich verstehe die Frage nicht ganz, 755 01:15:02,560 --> 01:15:04,560 aber ich glaube, es geht nicht viel. 756 01:15:04,560 --> 01:15:06,560 Wir werden einfach versuchen, genau dasselbe 757 01:15:06,560 --> 01:15:08,560 zu machen wie ChatGPT. 758 01:15:08,560 --> 01:15:10,560 Wir werden halt öffentlich. Warum? 759 01:15:10,560 --> 01:15:12,560 Das ist in der Vorteil. 760 01:15:12,560 --> 01:15:14,560 Ich würde mir lieber gucken, was solche 761 01:15:14,560 --> 01:15:16,560 Modelle, wie es jetzt gibt, wie ChatGPT, 762 01:15:16,560 --> 01:15:18,560 was die nicht können. 763 01:15:18,560 --> 01:15:20,560 Die sind trainiert anhand von 764 01:15:20,560 --> 01:15:22,560 Wikipedia-Inhalten. 765 01:15:22,560 --> 01:15:24,560 Aber frag mal ChatGPT, 766 01:15:24,560 --> 01:15:26,560 woher hast du die Information? 767 01:15:26,560 --> 01:15:28,560 Wir hatten das behauptet, wann und warum? 768 01:15:28,560 --> 01:15:30,560 Dann kommt das die am meisten Stelle 769 01:15:30,560 --> 01:15:32,560 des Schwimmens der CD, der komplette Schlagzeige. 770 01:15:32,560 --> 01:15:34,560 Das ist die Stelle, wo Wikipedia 771 01:15:34,560 --> 01:15:36,560 unersetzbar sein wird auch in der Zukunft. 772 01:15:36,560 --> 01:15:38,560 Glaube ich. 773 01:15:38,560 --> 01:15:40,560 Und das wird die Zukunft zeigen. 774 01:15:40,560 --> 01:15:42,560 Versucht euch auch das zu konzentrieren, 775 01:15:42,560 --> 01:15:44,560 wo ChatGPT schlecht ist. 776 01:15:44,560 --> 01:15:46,560 Und das zu 777 01:15:46,560 --> 01:15:48,560 verstärken. 778 01:15:48,560 --> 01:15:50,560 Noch schlecht ist. 779 01:15:52,560 --> 01:15:54,560 Also ich glaube, 780 01:15:54,560 --> 01:15:56,560 die Frage, die sich hier stellt, 781 01:15:56,560 --> 01:15:58,560 das hat das U-Block schon richtig angesprochen. 782 01:15:58,560 --> 01:16:00,560 Es geht um das Thema Monetarisierung. 783 01:16:00,560 --> 01:16:02,560 Es geht um das Thema 784 01:16:02,560 --> 01:16:04,560 ja, letzten Endes, 785 01:16:04,560 --> 01:16:06,560 wo befindet sich die Wertschaffung in einer KI-Welt statt? 786 01:16:08,560 --> 01:16:10,560 Zur Zeit ist es ja so, dass die großen 787 01:16:10,560 --> 01:16:12,560 Plattformanbieter, die den großen 788 01:16:12,560 --> 01:16:14,560 KI-Modelle anbietern werden. 789 01:16:14,560 --> 01:16:16,560 Aber die Modelle 790 01:16:16,560 --> 01:16:18,560 werden ja gebaut aus Dingen, 791 01:16:18,560 --> 01:16:20,560 denen Anbieter nicht gehören. 792 01:16:20,560 --> 01:16:22,560 Im erheblichen Teil. 793 01:16:22,560 --> 01:16:24,560 Und jetzt ist es so und 794 01:16:24,560 --> 01:16:26,560 die kätzerliche Frage war, 795 01:16:26,560 --> 01:16:28,560 war es vielleicht eine Scheißidee, ob wir es 796 01:16:28,560 --> 01:16:30,560 wollen machen? 797 01:16:30,560 --> 01:16:32,560 Die bewusst kätzerliche Frage. 798 01:16:32,560 --> 01:16:34,560 Weil wir liefern natürlich mit unseren 799 01:16:34,560 --> 01:16:36,560 Lizenzen, denen das perfekte 800 01:16:36,560 --> 01:16:38,560 Trending Material für die 801 01:16:38,560 --> 01:16:40,560 Modelle bei hauptsächlich. 802 01:16:40,560 --> 01:16:42,560 Bei anderen ist es halt technische Weiterentwicklung. 803 01:16:42,560 --> 01:16:44,560 In einer hart kapitalistisch 804 01:16:44,560 --> 01:16:46,560 organisierten Welt haben wir 805 01:16:46,560 --> 01:16:48,560 eigentlich zu Stand heute 806 01:16:48,560 --> 01:16:50,560 kein großes Druckmittel, 807 01:16:50,560 --> 01:16:52,560 mit uns zusammen die Modelle zu erwerben. 808 01:16:52,560 --> 01:16:54,560 Jetzt kann man natürlich sagen, 809 01:16:54,560 --> 01:16:56,560 im Offiziersbereich ist es ja auch so, 810 01:16:56,560 --> 01:16:58,560 dass die Profiteure von Offizierssoftware 811 01:16:58,560 --> 01:17:00,560 selber in das System investieren 812 01:17:00,560 --> 01:17:02,560 und quasi das 813 01:17:02,560 --> 01:17:04,560 System, in dem sie sich entwickeln 814 01:17:04,560 --> 01:17:06,560 können, am Laufenden zu halten. 815 01:17:06,560 --> 01:17:08,560 Das ist aber was relativ 816 01:17:08,560 --> 01:17:10,560 Konkretes bei Offizierssoftware, weil 817 01:17:10,560 --> 01:17:12,560 früher die Entwickler, die das programmieren, 818 01:17:12,560 --> 01:17:14,560 das sie dann selber nutzen, wirklich dann auch 819 01:17:14,560 --> 01:17:16,560 sieben. Im Falle von 820 01:17:16,560 --> 01:17:18,560 Sprachmodellen, und das wurde jetzt auch 821 01:17:18,560 --> 01:17:20,560 verschiedenlich angesprochen, 822 01:17:20,560 --> 01:17:22,560 haben wir, glaube ich, schon 823 01:17:22,560 --> 01:17:24,560 ein berechtigtes Interesse 824 01:17:24,560 --> 01:17:26,560 der Betreiber dieser großen Sprachmodelle, 825 01:17:26,560 --> 01:17:28,560 dass der Goldschatz 826 01:17:28,560 --> 01:17:30,560 halbwegs demantlich 827 01:17:30,560 --> 01:17:32,560 proverkt ist müssen in der Wikipédia 828 01:17:32,560 --> 01:17:34,560 und in Wikidata, 829 01:17:34,560 --> 01:17:36,560 dass die den gerne auch in Zukunft 830 01:17:36,560 --> 01:17:38,560 weiter nutzen können. 831 01:17:38,560 --> 01:17:40,560 Und es wäre mal ganz spannend, aber das macht 832 01:17:40,560 --> 01:17:42,560 keiner, weil es Geldverschwendung wäre, 833 01:17:42,560 --> 01:17:44,560 wie chat.gbt antworten würde, 834 01:17:44,560 --> 01:17:46,560 wenn man mal komplett alle 835 01:17:46,560 --> 01:17:48,560 Wikipedialaten rauszieht. 836 01:17:48,560 --> 01:17:50,560 Also wenn man quasi das, was 837 01:17:50,560 --> 01:17:52,560 Context schafft, unter diesen ganzen anderen 838 01:17:52,560 --> 01:17:54,560 einzelnen Verpflichtungen, die da auch reingelaufen sind, 839 01:17:54,560 --> 01:17:56,560 wenn man das mal raushält. 840 01:17:56,560 --> 01:17:58,560 Also eine Welt, wo 841 01:17:58,560 --> 01:18:00,560 die Wikipedia uns vorstellt und uns 842 01:18:00,560 --> 01:18:02,560 fragen, ob die Sprachmodelle in dieser 843 01:18:02,560 --> 01:18:04,560 Nicht-Wikipedia-Welt überhaupt 844 01:18:04,560 --> 01:18:06,560 in der Lage wären, die Qualität, die sie 845 01:18:06,560 --> 01:18:08,560 heute für die Leute darstellen, 846 01:18:08,560 --> 01:18:10,560 zu erreichen. Ich hätte da Agezweifel dran. 847 01:18:10,560 --> 01:18:12,560 Deshalb sollte es eigentlich 848 01:18:12,560 --> 01:18:14,560 rein aus volkswirtschaftlich 849 01:18:14,560 --> 01:18:16,560 öffentlicher Sicht 850 01:18:16,560 --> 01:18:18,560 ein Interesse daran geben, dass es das, 851 01:18:18,560 --> 01:18:20,560 was wir hier machen, möglichst lange, 852 01:18:20,560 --> 01:18:22,560 möglichst dauerhaft und in möglichst großer 853 01:18:22,560 --> 01:18:24,560 Qualität gibt. 854 01:18:24,560 --> 01:18:26,560 Die Frage ist, 855 01:18:26,560 --> 01:18:28,560 damit sind wir wieder bei der Questionfrage, 856 01:18:28,560 --> 01:18:30,560 Autorin Schwund, wie 857 01:18:30,560 --> 01:18:32,560 schafft man das, wenn man 858 01:18:32,560 --> 01:18:34,560 eine derart massive 859 01:18:34,560 --> 01:18:36,560 Entfremdungsrichtung schaffen 860 01:18:36,560 --> 01:18:38,560 und den Verhandlungen von Wissen und dem Nutzen von Wissen? 861 01:18:40,560 --> 01:18:42,560 Das wird durch die KI immer stärker werden. 862 01:18:42,560 --> 01:18:44,560 Ich habe da keine Antwort drauf. 863 01:18:44,560 --> 01:18:46,560 Ich glaube auch nicht, dass es eine einfache Antwort gibt. 864 01:18:46,560 --> 01:18:48,560 Wir können es natürlich 865 01:18:48,560 --> 01:18:50,560 alle wünschen, dass wir irgendwie 866 01:18:50,560 --> 01:18:52,560 so 867 01:18:52,560 --> 01:18:54,560 ja, 868 01:18:54,560 --> 01:18:56,560 wenn das kapitalistische System 869 01:18:56,560 --> 01:18:58,560 überwinden und alle gemeinwohl orientiert arbeiten 870 01:18:58,560 --> 01:19:00,560 und so etwas, aber ich glaube nicht, dass wir das in den nächsten 30 Jahren hinbekommen. 871 01:19:02,560 --> 01:19:04,560 Und wenn dann irgendwann die KI-Texten 872 01:19:04,560 --> 01:19:06,560 abschreiben müssen, 873 01:19:06,560 --> 01:19:08,560 weil es keine anderen Texte mehr gibt, 874 01:19:08,560 --> 01:19:10,560 dann haben wir tatsächlich gesellschaftlichen, 875 01:19:10,560 --> 01:19:12,560 das hatte Dany ja schon angesprochen, 876 01:19:12,560 --> 01:19:14,560 ein riesiges Problem. 877 01:19:14,560 --> 01:19:16,560 Also wirklich ein riesiges Problem, 878 01:19:16,560 --> 01:19:18,560 weil dann das Faktenfundament nicht mehr da ist. 879 01:19:18,560 --> 01:19:20,560 Ich veröffentliche noch 880 01:19:20,560 --> 01:19:22,560 die letzten beiden Fragen, die wir haben 881 01:19:22,560 --> 01:19:24,560 und dann ist Schluss. 882 01:19:24,560 --> 01:19:26,560 Habt ihr noch Antworten zu 883 01:19:26,560 --> 01:19:28,560 Wie seht ihr die Zukunft der Wikipedia? 884 01:19:28,560 --> 01:19:30,560 Hat es noch weitere Anmerkungen, Ideen etc. 885 01:19:30,560 --> 01:19:32,560 zum Thema Wikipedia-Zeiten, 886 01:19:32,560 --> 01:19:34,560 oder ist es eine künstliche Intelligenz? 887 01:19:36,560 --> 01:19:38,560 Vielleicht kurz zentieren? 888 01:19:38,560 --> 01:19:40,560 Also die 889 01:19:40,560 --> 01:19:42,560 lizenzrechtliche Frage würde ich gerne klären. 890 01:19:42,560 --> 01:19:44,560 Also soweit ich weiß, 891 01:19:44,560 --> 01:19:46,560 stehen die Inhalte 892 01:19:46,560 --> 01:19:48,560 der Wikipedia unter einer 893 01:19:48,560 --> 01:19:50,560 preizenzigen Namenssendung zum Beispiel drin. 894 01:19:50,560 --> 01:19:52,560 Wo du nicht einfach so einfach mal weitergehen kannst 895 01:19:52,560 --> 01:19:54,560 und du musst bitte sehr lizenzweit ergeben. 896 01:19:54,560 --> 01:19:56,560 In den Abschluss, wenn ihr das mal so... 897 01:19:56,560 --> 01:19:58,560 So, das höre ich doch mal ganz gerne. 898 01:19:58,560 --> 01:20:00,560 Einfach mal irgendwo am besten von amerikanischem 899 01:20:00,560 --> 01:20:02,560 die sich die Gründe gebrochen haben. 900 01:20:02,560 --> 01:20:04,560 Und dann ist die Wiener Foundation 901 01:20:04,560 --> 01:20:06,560 finanziert, bis in den Jahr 902 01:20:06,560 --> 01:20:08,560 21.045. 903 01:20:08,560 --> 01:20:10,560 Macht das! 904 01:20:10,560 --> 01:20:12,560 Ich fürchte, 905 01:20:12,560 --> 01:20:14,560 dass wir hier funktionieren. 906 01:20:14,560 --> 01:20:16,560 Ich habe jetzt die Reihenkaste 907 01:20:16,560 --> 01:20:18,560 von Wikipedia in einem Namen. 908 01:20:18,560 --> 01:20:20,560 Dass man rausziehen kann 909 01:20:20,560 --> 01:20:22,560 und auslernen kann, ist weg. 910 01:20:22,560 --> 01:20:24,560 Man wird es nicht nachweisen können, 911 01:20:24,560 --> 01:20:26,560 was von Wikipedia kommt 912 01:20:26,560 --> 01:20:28,560 und was nicht. Das selbe Problem haben auch 913 01:20:28,560 --> 01:20:32,560 die Künstler, die an Zeichenstile verwendet werden. 914 01:20:32,560 --> 01:20:34,560 Als Grundlage für künstliche Künstler. 915 01:20:34,560 --> 01:20:36,560 Auf dem Artikel 916 01:20:36,560 --> 01:20:38,560 des Künstlerpreises 917 01:20:38,560 --> 01:20:40,560 werden sehr gesteckte Zeichnungen. 918 01:20:40,560 --> 01:20:42,560 Ich würde auch davor warnen, 919 01:20:42,560 --> 01:20:44,560 hier ist Jack in the Team 920 01:20:44,560 --> 01:20:46,560 als Ladymage zu sehen. 921 01:20:46,560 --> 01:20:48,560 Das Ganze ist auch bitte schön optimiert 922 01:20:48,560 --> 01:20:50,560 auf die Dialogfähigkeit. 923 01:20:50,560 --> 01:20:52,560 Und man hat sehr bewusst darauf geachtet 924 01:20:52,560 --> 01:20:54,560 und peinlich darauf geachtet, 925 01:20:54,560 --> 01:20:56,560 den früher zu vermeiden, 926 01:20:56,560 --> 01:20:58,560 dass der Microsoft 927 01:20:58,560 --> 01:21:00,560 mit seinem berühmten Jack fortgemacht hat, 928 01:21:00,560 --> 01:21:02,560 der in kürzester Zeit von wenigen Stunden 929 01:21:02,560 --> 01:21:04,560 so nazi geworden ist, 930 01:21:04,560 --> 01:21:06,560 weil er entsprechend gefüttert wurde. 931 01:21:06,560 --> 01:21:08,560 Deswegen schickt sich die eben 932 01:21:08,560 --> 01:21:10,560 diese berühmten Antworten 933 01:21:10,560 --> 01:21:12,560 und entschuldigt sich auch hunderttausendmal. 934 01:21:12,560 --> 01:21:14,560 Und wenn man sagt, mir geht das jetzt auf den Nerv, 935 01:21:14,560 --> 01:21:16,560 dass du dich ständig entschuldigst, 936 01:21:16,560 --> 01:21:18,560 dann entschuldige ich das nicht mehr. 937 01:21:18,560 --> 01:21:20,560 Diese Mechanismen spielen 938 01:21:20,560 --> 01:21:22,560 ich bin jetzt 939 01:21:22,560 --> 01:21:24,560 mit K.E. in der Universität 940 01:21:24,560 --> 01:21:26,560 aber diese Mechanismen spielen 941 01:21:26,560 --> 01:21:28,560 sehr, sehr große Rolle 942 01:21:28,560 --> 01:21:30,560 in dem was man sieht. 943 01:21:36,560 --> 01:21:38,560 Okay, also wenn 944 01:21:38,560 --> 01:21:40,560 dann alles gesagt wurde, 945 01:21:40,560 --> 01:21:42,560 hätte ich eigentlich die Idee gehabt, 946 01:21:42,560 --> 01:21:44,560 ein Projekt zu gründen und zwar Wiki45. 947 01:21:44,560 --> 01:21:46,560 Nachdem wir aber jetzt 948 01:21:46,560 --> 01:21:48,560 auch das Zukunftskongress haben werden, 949 01:21:48,560 --> 01:21:50,560 weiß ich nicht, 950 01:21:50,560 --> 01:21:52,560 wie sinnvoll das ist. 951 01:21:52,560 --> 01:21:54,560 Ich schätze, es überdeckt sich relativ groß, 952 01:21:54,560 --> 01:21:56,560 aber wir können ja mal schauen. 953 01:21:56,560 --> 01:21:58,560 Ist hier das draußen heute? 954 01:21:58,560 --> 01:22:00,560 Ja, wir haben bis 25 955 01:22:00,560 --> 01:22:02,560 Zeit. 956 01:22:02,560 --> 01:22:04,560 Wir haben jetzt auch 957 01:22:04,560 --> 01:22:06,560 mehr mitmachen, 958 01:22:06,560 --> 01:22:08,560 den kann ich gern mitmachen. 959 01:22:08,560 --> 01:22:10,560 Ansonsten, denke ich, werden wir noch 960 01:22:10,560 --> 01:22:12,560 viel über weiter diskutieren 961 01:22:12,560 --> 01:22:14,560 und bedanke mich für die Aufmerksamkeit. 962 01:22:22,560 --> 01:22:24,560 Vielen Dank sagen allen und