German subtitles for clip: File:WikiCon 2023 - 2045 – Wie Wikipedia in Zeiten von KI überleben kann.webm

From Wikimedia Commons, the free media repository
Jump to navigation Jump to search
1
00:00:00,000 --> 00:00:10,000
Herzlich willkommen hier bei dieser Session. Der Titel lautet 2045 – wie Wikipedia in Zeiten von KI überleben kann.

2
00:00:10,000 --> 00:00:20,000
Kurz zum Titel, 2045 ist so gerechnet: Wir befinden uns jetzt in der Hälfte seit Gründung der Wikipedia, also wir haben jetzt Halbzeit.

3
00:00:20,000 --> 00:00:26,000
Und das wäre ein Punkt jetzt zu die Entwicklung zu betrachten.

4
00:00:26,000 --> 00:00:34,000
Der Grundgedanke, auf den wir jetzt dann genauer eingehen werden, ist eine gleichbleibende Entwicklung der Wikipedia wie in den vergangenen 22 Jahren.

5
00:00:34,000 --> 00:00:46,000
Das könnte dazu führen, dass Wikipedia 2045 überhaupt nicht mehr genutzt wird und stattdessen kommerzielle Anbieter mit KI an deren Stelle treten.

6
00:00:46,000 --> 00:00:51,000
Und wir wollen das jetzt möglichst positiv framen: Wie können wir das vermeiden?

7
00:00:51,000 --> 00:00:59,000
Dazu wollen wir einen Impulsvortrag mit Gästen online halten und danach eine Diskussionsrunde anregen.

8
00:00:59,000 --> 00:01:11,000
Gut, also erster Teil, der Impulsvortrag. Grobe Gliederungen: Wir wollen über die aktuellen Entwicklungen in der KI-Branche sprechen,

9
00:01:11,000 --> 00:01:15,000
kurz auch auf langfristige Gefahren durch KI eingehen.

10
00:01:15,000 --> 00:01:23,000
Danach geht es darum, was die Wikimedia Foundation bereits sich dazu überlegt hat.

11
00:01:23,000 --> 00:01:35,000
Möglicherweise... Ich werde kurz auf den aktuellen Jahresplan eingehen, wie kommt KI dort vor und wir werden von unseren Gästen auch über die technischen Entwicklungen in die Richtung hören.

12
00:01:35,000 --> 00:01:43,000
Danach die Frage: Wie wird KI zurzeit in Wikipedia verwendet, diskutiert, gesehen?

13
00:01:43,000 --> 00:01:48,000
Also wie hängt es mit der Communityarbeit zurzeit zusammen?

14
00:01:48,000 --> 00:01:59,000
Dann geht es darum, wie hat sich Wikipedia bis jetzt entwickelt? Wie kann es 2045 bei kontinuierlicher Entwicklung aussehen? Und welche Rolle spielt dabei die KI?

15
00:01:59,000 --> 00:02:11,000
Wir werden ein Worst Case Szenario vorstellen und dann aber eben auch positiv gesehen, wie kann Wikipedia sich bei einer revolutionären Entwicklung 2045... Wie kann sie dann aussehen?

16
00:02:11,000 --> 00:02:17,000
Und im Anschluss daran dann eben mit diesen Impulsen hoffen wir auch eine rege Diskussion.

17
00:02:17,000 --> 00:02:26,000
Gut! Genau: Also wir sind vier Leute, zwei online, zwei hier vor Ort.

18
00:02:26,000 --> 00:02:33,000
Ich bin Kevin Golde, ich bin Wikipedianer seit 2007, angemeldet seit 2009.

19
00:02:33,000 --> 00:02:39,000
Viele kennen mich vielleicht vom Projekt Wiki Loves Broadcast, also der Zusammenarbeit mit ARD und ZDF.

20
00:02:39,000 --> 00:02:46,000
Im Real Life bin ich fast ein Verkehrsingenieur, ich muss nur meine Verteidigung machen.

21
00:02:46,000 --> 00:02:54,000
Und ab morgen auch wieder bei der Deutschen Bahn, genau genommen bei der DB Netz, die ab Januar zur DB InfraGO wird.

22
00:02:54,000 --> 00:03:02,000
Wer dachte, GO steht für gehen, was natürlich die Ampel sehr groß fördert neben dem Autofahren, der liegt hier falsch.

23
00:03:02,000 --> 00:03:08,000
Das GO steht für gemeinwohlorientiert, was auch ein Thema in diesem Vortrag sein wird.

24
00:03:08,000 --> 00:03:21,000
Genau, wieso bin ich an diesem Thema interessiert? Ich würde gerne 2045 noch miterleben und möchte eben auch entsprechend die Wege dazu bereiten,

25
00:03:21,000 --> 00:03:26,000
dass es ein gutes Jahr wird für das Freie Wissen.

26
00:03:27,000 --> 00:03:39,000
Ja, wenn wir die Vorstellungsrunde voll machen: Ich bin Raphael, Wikimedianer, Admin, Autor, mache auch viel Technisches, im juristischen Bereich tätig.

27
00:03:39,000 --> 00:03:45,000
Und ich dachte mir, ich kann nicht in die Zukunft zählen, aber drehen wir mal drüber.

28
00:03:45,000 --> 00:03:50,000
Und unsere Gäster, wenn sie sich vorstellen möchten, auch gerne.

29
00:03:50,000 --> 00:04:05,000
Ja, hallo, ich bin Lydia Pincher, ich arbeite für Wikimedia Deutschland als Portflio Lead für Wikidata und bin da seit 2012 dabei und in meiner Freizeit als Visepräzisantin von KDE e.V.

30
00:04:05,000 --> 00:04:07,000
Denny.

31
00:04:07,000 --> 00:04:19,000
Ich bin Denny Vrandečić. Ich arbeite seit drei Jahren bei Wikimedia Foundation an Abstract Wikipedia und Wikifunctions und bin Wikimedianer seit 20 Jahren

32
00:04:19,000 --> 00:04:24,000
und die letzten zwei Jahre etwa fragen mich alle ständig über KI

33
00:04:24,000 --> 00:04:28,000
also schätze ich mal, hat mich Kevin deswegen auch eingeladen.

34
00:04:31,000 --> 00:04:33,000
Ja, danke, Denny.

35
00:04:33,000 --> 00:04:39,000
Also wir möchten erstmal hier das Ganze mit einer Frage starten.

36
00:04:39,000 --> 00:04:46,000
Und zwar, wer von euch nutzt generative KI wie ChatGPT?

37
00:04:46,000 --> 00:04:51,000
Ja, einige. Und vielleicht ganz kurz zwei, drei Leute,

38
00:04:51,000 --> 00:04:54,000
wofür nutzt ihr es? Vielleicht die, die es auch ein bisschen umfangreicher nutzen,

39
00:04:54,000 --> 00:04:56,000
nicht einfach mal zum Testen.

40
00:04:56,000 --> 00:05:00,000
Ja! Ich nutz es vor allem zum Programmieren,

41
00:05:00,000 --> 00:05:04,000
fällt mir leichter. Vielleicht nochmal, damit man das auch online hört.

42
00:05:04,000 --> 00:05:07,000
Ich nutze es... Ich nutze es vor allem zum Programmieren,

43
00:05:07,000 --> 00:05:13,000
wenn ich jetzt irgendwelche neuen technologien kennenlernen will, wird mir das leichter erklärt, als wenn ich mir erst eine Doku durchlesen muss

44
00:05:13,000 --> 00:05:18,000
und generell auch zum Debuggen ist es ganz gut.

45
00:05:18,000 --> 00:05:23,000
Also zum Beispiel auch GitHub Copilot oder ähnliche Tools.

46
00:05:27,000 --> 00:05:29,000
Möchte noch jemand?

47
00:05:29,000 --> 00:05:35,000
Ich nutze es fallweise, eigentlich vor allem um Schwachstellen aufzuspüren.

48
00:05:35,000 --> 00:05:37,000
Genau. Das war schon einiges.

49
00:05:37,000 --> 00:05:44,000
Ja, also ich persönlich nutze ChatGPT eigentlich nur, um mich für diesen Vorschlag vorzubereiten,

50
00:05:44,000 --> 00:05:47,000
also nicht wirklich.

51
00:05:47,000 --> 00:05:52,000
Genau. Aber ja, im Rahmen dessen habe ich es dann doch ein bisschen kennenlernen dürfen

52
00:05:52,000 --> 00:05:56,000
und habe erstmal gefragt, gut, was weiß denn jeder Mensch?

53
00:05:56,000 --> 00:06:02,000
Und alle Menschen wissen, wenn man sie eben zwei Uhr in der Nacht weckt die Mitternachtsformel.

54
00:06:02,000 --> 00:06:08,000
Und alle Menschen wissen, wenn man sie eben zwei Uhr in der Nacht weckt die Mitternachtsformel.

55
00:06:08,000 --> 00:06:11,000
Dann habe ich ChatGPT nach der Mitternachtsformel gefragt.

56
00:06:11,000 --> 00:06:16,000
Gut, ich glaube jetzt hat sie inzwischen auf bayerisches Abi, also konnte sie mir ausspucken.

57
00:06:16,000 --> 00:06:20,000
Sie konnte mir auch ausspucken, wie man die herleitet,

58
00:06:20,000 --> 00:06:24,000
dann habe ich sie als nächstes gefragt: Okay, wir haben bald in Bayern Wahlen.

59
00:06:24,000 --> 00:06:29,000
Ist Hubert Aiwanger... Ich weiß nicht, wer kennt Hubert Aiwanger?

60
00:06:29,000 --> 00:06:32,000
Jetzt jeder.

61
00:06:32,000 --> 00:06:35,000
Ist er linksgrünversifft?

62
00:06:35,000 --> 00:06:39,000
Und wer würde ihn als linksgrünversifft bezeichnen?

63
00:06:39,000 --> 00:06:42,000
Niemand. Also die Antwort wäre nein.

64
00:06:42,000 --> 00:06:49,000
Hat ChatGPT mir aber nicht gesagt, aber dafür schön um den heißen Brei geschwafelt.

65
00:06:49,000 --> 00:06:52,000
Also dafür war es jetzt nicht brauchbar,

66
00:06:52,000 --> 00:06:58,000
ebenso wenig, wie wenn man die KI fragt, was sagen denn Kritiker über Hubert Aiwanger?

67
00:06:59,000 --> 00:07:03,000
Genau: Im Prinzip, das weiß man auch im Allgemeinen,

68
00:07:03,000 --> 00:07:09,000
ChatGPT zeigt, dass generative... generative KI bereits Grundlagen erklären kann.

69
00:07:09,000 --> 00:07:14,000
Aber noch Probleme hat bei, ja, wenn man mehr ins Detail geht, wie z.B. politische Ausrichtung,

70
00:07:14,000 --> 00:07:18,000
und wie wir auch alle wissen, sie fantasiert gerne Quellen.

71
00:07:18,000 --> 00:07:24,000
Somit sind wir noch gegenüber ChatGPT weit überlegen als Wikipedia,

72
00:07:24,000 --> 00:07:30,000
aber wir sehen zugleich, dass die technische Entwicklung sehr rasch voranschreitet.

73
00:07:30,000 --> 00:07:36,000
Genau! Generative KI kann, wie wir auch heute früh gehört haben,

74
00:07:36,000 --> 00:07:42,000
von Wikipedia oder von Wikidata die Daten frei nutzen, was ich sehr schön finde

75
00:07:42,000 --> 00:07:49,000
und es gibt auch ein ChatGPT-Plugin, das glaube ich aktuell nicht mehr,

76
00:07:49,000 --> 00:07:53,000
kann man also nicht mehr benutzen, als ich es selbst getestet habe,

77
00:07:53,000 --> 00:07:56,000
aber sozusagen, dass es auch auf Wikipedia-Information zugreift,

78
00:07:56,000 --> 00:08:01,000
dann hätte es vielleicht mehr beantworten können, was für Kritiken es zum Beispiel zu Hubert Aiwanger gibt.

79
00:08:01,000 --> 00:08:06,000
Seht ihr auch hier, es gibt einen eigenen Abschnitt "Kontroversen" über ihn in der Wikipedia,

80
00:08:06,000 --> 00:08:09,000
also dann wäre vielleicht ChatGPT ein bisschen schlauer.

81
00:08:12,000 --> 00:08:16,000
Genau, was wir halt auch jetzt heute früh schon berät haben,

82
00:08:16,000 --> 00:08:22,000
ist, dass die Zahl der Aufrufe von Wikipedia heruntergehen.

83
00:08:22,000 --> 00:08:29,000
Was ich jetzt an den ganzen Suchmaschinen... an den ganzen Suchmaschinen erklären würde,

84
00:08:29,000 --> 00:08:36,000
weil die einfach mal den ersten oder den zweiten Satz noch ausspucken

85
00:08:36,000 --> 00:08:41,000
aus Wikipedia, man es also auch nicht weiter recherchiert,

86
00:08:41,000 --> 00:08:44,000
weil dann hat man die Grundinformation ja häufig schon.

87
00:08:45,000 --> 00:08:51,000
Genau, aber wenn wir eh schon beim Thema KI und der Wikimedia waren

88
00:08:51,000 --> 00:08:56,000
und die Leute von der Wikimedia Foundation und Deutschland auch da haben,

89
00:08:56,000 --> 00:08:59,000
habe ich gedacht, geben wir euch einen kleinen Überblick.

90
00:08:59,000 --> 00:09:03,000
Aber erstmal stellt euch Raphael den Jahresplan vor.

91
00:09:03,000 --> 00:09:08,000
Ja, also nicht den ganzen Jahresplan, das würde ja definitiv übder das Ziel herausschießen,

92
00:09:08,000 --> 00:09:11,000
den kann sich jeder durchlesen, wer interessiert ist.

93
00:09:11,000 --> 00:09:16,000
Ich wollte kurz darauf eingehen, was ist so programmatisch schon der Gedanke,

94
00:09:16,000 --> 00:09:19,000
da kann Danny dann sicher auch noch etwas dazu sagen.

95
00:09:19,000 --> 00:09:23,000
Aber grundsätzlich: KI ist noch gar nicht so lange ein Thema.

96
00:09:23,000 --> 00:09:26,000
Ja, es kam alles erst auf dieses Jahr im Grunde.

97
00:09:26,000 --> 00:09:32,000
Aber 2022 hat Maryana Iskander, als sie als neue Geschäftsführerin angetreten ist,

98
00:09:32,000 --> 00:09:37,000
hat sie bereits in ihren Anfangsstatements ein wenig über KI gesprochen,

99
00:09:37,000 --> 00:09:42,000
sie hatte dort angesprochen, dass KI bei den externen Trends,

100
00:09:42,000 --> 00:09:46,000
die wir im Blick behalten sollten, in der Übersetzung vor allem

101
00:09:46,000 --> 00:09:50,000
und auch schon bei erster Erstellung von Inhalten aufkommt.

102
00:09:50,000 --> 00:09:55,000
Und: Dass KI, natürlich KI-Algorithmen im Hintergrund bei großen Plattformen,

103
00:09:55,000 --> 00:09:58,000
sozialen Medien vor allem, zur Moderation verwendet werden.

104
00:09:58,000 --> 00:10:03,000
Das waren so die zwei Punkte, die Maryana damals angesprochen hat.

105
00:10:03,000 --> 00:10:10,000
Und daraus wurde dieser Teil des aktuellen Jahresplans externe Trends, External Trends, entwickelt,

106
00:10:10,000 --> 00:10:16,000
in dem etwas genauer geschaut wurde, welche Trends könnten für uns relevant sein.

107
00:10:16,000 --> 00:10:21,000
Und da ist die große Frage eben, was braucht die Welt von Wikimedia eigentlich?

108
00:10:21,000 --> 00:10:28,000
Das ist alles sehr aktuell, da wurde geschaut, okay, jetzt generative KI explodiert gerade.

109
00:10:28,000 --> 00:10:32,000
Es gibt große Veränderungen, was bedeutet das für uns?

110
00:10:32,000 --> 00:10:37,000
Wikimedia hat jetzt eine zunehmend unklare Rolle im gesamten Wissensökosystem,

111
00:10:37,000 --> 00:10:44,000
gerade weil wir schon angesprochen haben, die Suchmaschinen integrieren mittlerweile alle KI

112
00:10:44,000 --> 00:10:50,000
und dadurch kommt ein zusätzlicher Vermittler zwischen den Wikimedia-Inhalten und den Nutzenden.

113
00:10:50,000 --> 00:10:53,000
Dadurch entsteht eine immer größere Distanz

114
00:10:53,000 --> 00:10:56,000
und daran müssen wir wahrscheinlich arbeiten.

115
00:10:57,000 --> 00:11:03,000
Dazu kommen, wie wir alle wissen, Urheberrechtsfragen, Fragen nach dem zusätzlichen Bias,

116
00:11:03,000 --> 00:11:06,000
nach der Unzuverlässigkeit der Inhalte.

117
00:11:06,000 --> 00:11:12,000
Und im Jahresplan 2023/24 gibt es dadurch daraus noch keine Konsequenzen,

118
00:11:12,000 --> 00:11:14,000
das sind alles Trends, die wir im Blick behalten müssen

119
00:11:14,000 --> 00:11:22,000
aber für die Ziele der Wikimedia Foundation in diesem Jahr hat es noch keine direkten Auswirkungen,

120
00:11:22,000 --> 00:11:25,000
denn die sind alle sehr communityzentriert.

121
00:11:25,000 --> 00:11:33,000
Im März dieses Jahres gab es auch einen Community-Call, in dem Herausforderungen und Chancen aufgrund dieser Trends angesprochen wurden,

122
00:11:33,000 --> 00:11:36,000
darauf komme ich später nochmal zu sprechen.

123
00:11:39,000 --> 00:11:42,000
Damit gebe ich an Denny.

124
00:11:42,000 --> 00:11:49,000
Ich wollte ein paar Sachen besprechen, die wir dann in ein bisschen Detail, die Rafael jetzt auch angesprochen hat.

125
00:11:49,000 --> 00:11:55,000
Wir haben zum Beispiel ein Team um Chris Alborn und andere, die an Machine Learning arbeiten.

126
00:11:55,000 --> 00:12:03,000
Also Chris arbeitet vor allem an allen möglichen Machine-Learning-Sachen, die die Foundation verwendet oder auch die die Communities verwenden,

127
00:12:03,000 --> 00:12:07,000
zum Beispiel wie das ehemalige ORASE das jetzt...

128
00:12:08,000 --> 00:12:11,000
Winged... nein, Left Wing heißt.

129
00:12:12,000 --> 00:12:19,000
Und eins der Sachen, an denen Sie gearbeitet haben, ist auch der ChatGPT-Plugin, den Rafael erwähnt hat.

130
00:12:19,000 --> 00:12:23,000
An anderen internen Experimenten mit neuen generativen Methoden...

131
00:12:23,000 --> 00:12:29,000
Aber wir haben natürlich nicht die Ressourcen als die WMF ein Sprachmodell von Grund auf zu trainieren,

132
00:12:29,000 --> 00:12:31,000
das kostet einfach viel zu viel.

133
00:12:31,000 --> 00:12:39,000
Diese Dinge kosten ja über 100 Millionen inzwischen, wenn man die kompetitiv mit so Sachen wie GPT-4 und so weiter trainieren möchte.

134
00:12:39,000 --> 00:12:46,000
Und unser wichtigstes Ziel ist es wirklich behutsam und kooperativ mit der Community zusammenzuarbeiten

135
00:12:46,000 --> 00:12:54,000
und zusammen die folgende Arbeit, die wir immer machen, abzuschätzen, auch der Community zu helfen, indem was sie erreichen möchte.

136
00:12:54,000 --> 00:12:57,000
Und dann gemeinsam eben Schritte zu machen.

137
00:12:57,000 --> 00:13:01,000
Es gibt viele Möglichkeiten, wie generative KI verwendet werden können.

138
00:13:01,000 --> 00:13:03,000
Teilweise kommen diese Vorschläge aus der Community,

139
00:13:04,000 --> 00:13:08,000
zum Beispiel Zusammenfassungen für Bearbeitungen könnten automatisch vorgeschlagen werden.

140
00:13:08,000 --> 00:13:13,000
Dann könnte der Nutzer sagen: "Ja, das gefällt mir" oder es nochmal bearbeiten.

141
00:13:13,000 --> 00:13:18,000
Wir könnten uns Artikel anschauen, schauen, wie könnte man die Lesbarkeit verbessern.

142
00:13:18,000 --> 00:13:29,000
Oder was ich auch gesehen habe, in der Community ist eine Diskussion, ob man zum Beispiel generierte Bilder zur Bewilderung von Artikeln verwenden soll.

143
00:13:29,000 --> 00:13:33,000
Ich weiß nicht, ob das jetzt eine Idee ist, aber es ist etwas, was diskutiert wird in der Community.

144
00:13:33,000 --> 00:13:43,000
Oder auch zum Beispiel, ob wir Social-Media-Schnipsel aus der Wikipedia heraus generieren sollen, die man dann auf die Wikipedia zurückverlinkt und das ganze findet.

145
00:13:43,000 --> 00:13:46,000
Also das sind so Ideen, die rumfliegen

146
00:13:46,000 --> 00:13:48,000
und da gibt es noch viel mehr

147
00:13:48,000 --> 00:13:52,000
und ich bin mir sicher, dass viele von euch im Raum auch noch mehr Ideen haben.

148
00:13:52,000 --> 00:13:56,000
Mein eigener Ansatz ist sehr unterschiedlich davon:

149
00:13:56,000 --> 00:14:00,000
Ich arbeite ja an Abstract Wikipedia und Wikifunctions, davor an Wikidata.

150
00:14:00,000 --> 00:14:08,000
Und da ist die Idee, das ist so eine parallele Spur zu dem Ganzen,

151
00:14:08,000 --> 00:14:15,000
da ist die Idee, dass wir eben nicht nur auf komplette enzyklopädische Artikel setzen, um Wissen zu verbreiten, um an Wissen zu arbeiten,

152
00:14:15,000 --> 00:14:26,000
sondern an anderen Arten von Wissen und an anderen Formen von Wissen, wo das dann automatisch bearbeitbar ist, was semantisch deklarativ ist.

153
00:14:26,000 --> 00:14:33,000
Also sozusagen in Wikidata diese einzelnen Statements. Wenn Wikifunctions Funktionen haben, die Antworten berechnen können

154
00:14:33,000 --> 00:14:44,000
und dass wir dann durch... dass wir dann durch diese Funktion oder durch Sparkle über Wikidata eben Fragen beantworten können, ohne dass wir die Korrektheit in Kauf nehmen müssen

155
00:14:44,000 --> 00:14:50,000
ohne dass wir uns ein Risiko aussetzen müssen, dass wir... dass jetzt diese Modelle haluzinieren.

156
00:14:50,000 --> 00:15:01,000
Und auch das ist etwas, wo wir dann daran arbeiten möchten, dass diese Modelle dann zum Beispiel zugreifen auf die korrekten Daten, die aus dem Wikimedia-Universum kommen,

157
00:15:01,000 --> 00:15:11,000
ob das jetzt aus Commons ist, aus Wikidata, aus der Enzyklopädie selbst, aus Wikipedia oder aus Wiktionary oder Wikifunctions, das spielt ja jetzt nicht so viel eine Rolle

158
00:15:11,000 --> 00:15:15,000
so lange wir dann die Fragen beantworten.

159
00:15:15,000 --> 00:15:18,000
Das sind... das sind großen Überblick von ein paar der Sachen, die wir machen,

160
00:15:18,000 --> 00:15:22,000
das ist weder vollständig noch ist das jetzt, als wir das machen sollten.

161
00:15:22,000 --> 00:15:25,000
Und wie gesagt, die Community hat ja noch viel, viel mehr in petto.

162
00:15:25,000 --> 00:15:29,000
Ich reiche wieder zurück, ich glaube an Kevin, um weiter zu machen.

163
00:15:29,000 --> 00:15:40,000
Okay, ja, ich gehe jetzt da nochmal kurz weiter, was die Community bereits ja... Also es gibt nicht so wirklich Community-Arbeit mit KI; gibt es jetzt in diesem Sinne noch nicht,

164
00:15:40,000 --> 00:15:44,000
es wurde aber sehr, sehr viel drüber gesprochen in diesem Jahr.

165
00:15:44,000 --> 00:15:55,000
Wie gesagt, es gab diesen Community Call, den die Wikimedia Foundation initiiert hatte im März, in dem dann eben Herausforderungen und Chancen besprochen wurden,

166
00:15:55,000 --> 00:16:02,000
Wie gesagt, es gab diesen Community Call, den die Wikimedia Foundation initiiert hatte im März, in dem dann eben Herausforderungen und Chancen besprochen wurden,

167
00:16:02,000 --> 00:16:09,000
Ich nenne nur exemplarisch ein paar Herausforderungen. Als Herausforderungen wurden damals identifiziert:

168
00:16:09,000 --> 00:16:13,000
Schriftliches Wissen verliert an Vertrauen durch generative KI,

169
00:16:13,000 --> 00:16:17,000
das Wikimedia Modell ist dadurch bedroht,

170
00:16:17,000 --> 00:16:24,000
es entstehen zusätzliche Biases durch die Trainingsdaten, die dann auch wieder Einzug in Wikipedia halten könnten

171
00:16:24,000 --> 00:16:27,000
und natürlich urheberrechtliche Fragen.

172
00:16:27,000 --> 00:16:34,000
Chancen können aber gleichzeitig sein, dass dann gegenüber diesen Inhalten Wikimedia als verlässliche Quelle gilt,

173
00:16:34,000 --> 00:16:38,000
also nochmal als verlässlicher, als sie bis jetzt schon wahrgenommen wird.

174
00:16:38,000 --> 00:16:44,000
Sie kann bei Zusammenfassungen, wie wir schon gehört haben, aber auch bei Übersetzungen sehr, sehr nützlich sein,

175
00:16:44,000 --> 00:16:48,000
automatische Transkriptionen von Interviews zum Beispiel.

176
00:16:48,000 --> 00:16:53,000
Und man könnte aufgrund all unserer Arbeit dann ein Open-Source-Sprachmodell entwickeln.

177
00:16:53,000 --> 00:16:59,000
Das wurde so im März damals besprochen und in der deutschsprachigen Wikipedia kam es seit Februar, glaube ich,

178
00:16:59,000 --> 00:17:06,000
ich habe ein bisschen die Archive durchwühlt, seit Februar im Archiv des Kuriers wurde es diskutiert.

179
00:17:06,000 --> 00:17:10,000
Und danach gab es vier Digitale Themenstammtische zum Thema.

180
00:17:10,000 --> 00:17:14,000
Einmal, ja, können wir KI-generierte Bilder verwenden?

181
00:17:14,000 --> 00:17:18,000
Können KIs schon Artikel schreiben?

182
00:17:18,000 --> 00:17:22,000
Wie ist das Verhältnis von Mensch und Maschine in einem solchen Fall?

183
00:17:22,000 --> 00:17:27,000
Und können KIs bei der Literaturrecherche behilflich sein?

184
00:17:27,000 --> 00:17:33,000
Und relativ, ja, relativ kürzlich war auch noch ein Thema:

185
00:17:33,000 --> 00:17:38,000
Sollen wir Tools zur Vandalismusbekämpfung nutzen, die auf KI basieren,

186
00:17:38,000 --> 00:17:43,000
das wird ja in anderen Wikipedia-Sprachversionen schon mehr gemacht als bei uns der Fall ist,

187
00:17:43,000 --> 00:17:47,000
bei uns wird es relativ abgelehnt bis jetzt.

188
00:17:47,000 --> 00:17:53,000
Und dazu kann ich dann gleich die Frage in den Raum stellen:

189
00:17:53,000 --> 00:17:58,000
Habt ihr Ideen, wie KI euch bei eurer Arbeit helfen kann?

190
00:17:58,000 --> 00:18:04,000
[Ab hier Untertitel durch Whisper Medium erzeugt] Wie gesagt, es wird viel drüber gesprochen, aber es ist noch nicht so wirklich in der Arbeit.

191
00:18:04,000 --> 00:18:06,000
Es gibt noch nicht wirklich.

192
00:18:06,000 --> 00:18:10,000
Ja, die Aktualisierung der Wikipedia ist ja immer ein großes Thema.

193
00:18:10,000 --> 00:18:16,000
Und auch hier ist eigentlich das Potenzial endlos, also Vorschläge,

194
00:18:16,000 --> 00:18:19,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

195
00:18:19,000 --> 00:18:22,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

196
00:18:22,000 --> 00:18:25,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

197
00:18:25,000 --> 00:18:28,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

198
00:18:28,000 --> 00:18:31,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

199
00:18:31,000 --> 00:18:34,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

200
00:18:34,000 --> 00:18:37,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

201
00:18:37,000 --> 00:18:40,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

202
00:18:40,000 --> 00:18:43,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

203
00:18:43,000 --> 00:18:46,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

204
00:18:46,000 --> 00:18:49,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

205
00:18:49,000 --> 00:18:52,000
die wir in der Arbeit haben, die wir in der Arbeit haben,

206
00:18:52,000 --> 00:18:55,000
und dann die aktuellen Geschehnissen in Deinen Artikel.

207
00:19:16,000 --> 00:19:19,000
Ich könnte mir vorstellen, dass das vielleicht sprachliche Verbesserungen macht,

208
00:19:19,000 --> 00:19:22,000
dass es eine Komma-Fehler-Ausbesserung oder so ist,

209
00:19:22,000 --> 00:19:25,000
dass KI das besser erkennt als ein Durchschnittsmensch,

210
00:19:25,000 --> 00:19:28,000
weil wir doch nicht alle alle Regeln kennen vielleicht.

211
00:19:28,000 --> 00:19:31,000
Aber ich kann mir noch nicht vorstellen, dass aktuell,

212
00:19:31,000 --> 00:19:34,000
in den nächsten ein, zwei Jahren,

213
00:19:34,000 --> 00:19:37,000
da wirklich was Text generiert,

214
00:19:37,000 --> 00:19:40,000
die man wirklich gut brauchen kann in der Wikipedia,

215
00:19:40,000 --> 00:19:43,000
aber so zum sprachlichen Überarbeiten sowas,

216
00:19:43,000 --> 00:19:46,000
kann ich mir durchaus vorstellen.

217
00:19:47,000 --> 00:19:50,000
Ja, ich habe auch noch nichts zusammengebracht,

218
00:19:50,000 --> 00:19:53,000
mit JGBT und so, auch anderen Programmen,

219
00:19:53,000 --> 00:19:56,000
mit JGBT und so, auch anderen Programmen,

220
00:19:56,000 --> 00:19:59,000
was Wikipedia halbwegs irgendwie tauglich oder mich unterstützen würde.

221
00:19:59,000 --> 00:20:02,000
was Wikipedia halbwegs irgendwie tauglich oder mich unterstützen würde.

222
00:20:02,000 --> 00:20:05,000
Auch keine vielen Bürgermeister, aber ich habe mich auch noch

223
00:20:05,000 --> 00:20:08,000
viel zu wenig damit befasst.

224
00:20:08,000 --> 00:20:11,000
Das Einzige, was es mir bringt, ist, es gibt mir gewisse Anregungen,

225
00:20:11,000 --> 00:20:14,000
was ich eigentlich noch schreiben könnte,

226
00:20:14,000 --> 00:20:17,000
was ich noch verbessern könnte, was ich noch einbauen könnte.

227
00:20:17,000 --> 00:20:20,000
Das bringt schon Anregungen, vielleicht sind manche davon absurd,

228
00:20:20,000 --> 00:20:23,000
die nehme ich halt nicht, aber manche,

229
00:20:23,000 --> 00:20:26,000
also ich bin immer bereit, so Ideen auch von anderen,

230
00:20:26,000 --> 00:20:29,000
natürlich Anregungen, aber auch von JGBT anzunehmen

231
00:20:29,000 --> 00:20:32,000
und nach zu recherchieren und dann einzubauen.

232
00:20:32,000 --> 00:20:35,000
Da ich von künstlicher Intelligenz nicht viel verstehe,

233
00:20:35,000 --> 00:20:38,000
Da ich von künstlicher Intelligenz nicht viel verstehe,

234
00:20:38,000 --> 00:20:41,000
ist mein Vorschlag eher Wunschdenken als wirklich konkret.

235
00:20:41,000 --> 00:20:44,000
ist mein Vorschlag eher Wunschdenken als wirklich konkret.

236
00:20:44,000 --> 00:20:47,000
Nämlich, ich wünschte mir, dass es eine Intelligenz,

237
00:20:47,000 --> 00:20:50,000
Nämlich, ich wünschte mir, dass es eine Intelligenz,

238
00:20:50,000 --> 00:20:53,000
welche auch immer gibt,

239
00:20:53,000 --> 00:20:56,000
was nicht in jedem Bereich der Welt eben nur hier in Deutschland

240
00:20:56,000 --> 00:20:59,000
und Kirchengarten hinein geht,

241
00:20:59,000 --> 00:21:08,640
Welche auch immer gibt, die Kategorien von Wikikommens, Deutschwikipedia und und und

242
00:21:08,640 --> 00:21:18,280
irgendwie standardisiert und möglichst kohärent macht oder Vorschläge dazu macht.

243
00:21:18,280 --> 00:21:23,560
Sprachübergreifend, global, so eben.

244
00:21:23,560 --> 00:21:25,560
Künstliche Intelligenz.

245
00:21:25,560 --> 00:21:32,560
Nützlich soll es sein, hilfreich, aber wahrscheinlich der Mensch, der dann irgendwann darüber schaut.

246
00:21:32,560 --> 00:21:48,560
Ich kann mir für die Zukunft auch gut vorstellen, dass wir vor allem in der Artikelarbeit wesentliche Erleichterungen

247
00:21:49,560 --> 00:22:00,560
mittels Chagipity oder KI überhaupt haben werden, indem wir einfach simple Sachen, für die wir sonst eine halbe Stunde sitzen und schreiben oder Copy-Paste machen,

248
00:22:00,560 --> 00:22:17,560
dass uns das KI abnehmen wird und wir dann quasi auf die Besonderheiten im Artikel einfach selbst dann Rücksicht nehmen können und mehr Zeit dafür haben, dann auch auf die Qualität im Artikel zu achten.

249
00:22:17,560 --> 00:22:28,560
Vielen Dank für die Beiträge. Wir werden später noch weitere Diskussionen haben. Deswegen merkt euch mit die Frauen, wir wollen bald einen Vortrag machen.

250
00:22:28,560 --> 00:22:40,560
Also zum Beispiel, ich hatte heute auch Übersetzungen genannt, das wäre auch ein Punkt, es gibt zahlreiche Anwendungen von anwendensmöglichkeiten.KI, die glaube ich der Wikipedia erhältend können.

251
00:22:40,560 --> 00:22:50,560
Jetzt haben wir natürlich nicht nur positive Seiten, sondern auch sehr viele Probleme, die wir auch mal klar benennen müssen.

252
00:22:50,560 --> 00:23:00,560
Wir haben kontinuierlich, vor allem in der deutschsprachigen Wikipedia, einen Autorinnen- und Autorenrückgang.

253
00:23:00,560 --> 00:23:12,560
Und genau, also selbst während Corona ist es tendenziell immer noch weiter abgesunken, bekommen wir einfach nicht in den Griff, müssen wir ganz offen sagen.

254
00:23:12,560 --> 00:23:29,560
Wir haben zahlreiche veraltete Informationen, also tatsächlich, das ist jetzt ein Beispiel, wo ich einfach mal gesehen habe, im Jahr 2021 oder so, im Artikel Lufthansa,

255
00:23:29,560 --> 00:23:38,560
das ist eine Information, die 2017 in Zukunft setzt und ich jetzt auch nicht einfach sagen kann, ist es jetzt so gekommen oder nicht.

256
00:23:38,560 --> 00:23:49,560
Deswegen einfach mal ein Baustein gesetzt habe, dieser Artikel braucht ein Update. Und dann habe ich mir überlegt, was für ein Beispiel könnte ich denn nennen.

257
00:23:49,560 --> 00:24:00,560
Und bin eben heute oder im Vorbereitung auf diesen Vortrag nochmal auf diesen Artikel gegangen und habe gesehen, Baustein und veraltete Infos stehen immer noch.

258
00:24:00,560 --> 00:24:09,560
Und das ist jetzt nur ein Beispiel von mir, was halt tatsächlich durch die ganze Wikipedia geht.

259
00:24:09,560 --> 00:24:19,560
Und jetzt ist die Lufthansa natürlich nicht irgendein Artikel, die wird pro Tag in einem vierstelligen Bereich immer abgerufen, wie man hier sieht.

260
00:24:19,560 --> 00:24:26,560
Ist in den Top 1000 Rankings der meist abgerufenen Artikel in der Deutschsprachigen Wikipedia.

261
00:24:26,560 --> 00:24:39,560
Und da steht halt auch die ganze Zeit, jeden Tag sehen wahrscheinlich nicht alle 1000 Menschen, aber viele von denen diesen veralteten Baustein und dass da Informationen veraltet sind.

262
00:24:39,560 --> 00:24:46,560
Und das ist halt nur beispielsweise im Lufthansa-Artikel. Das macht sich glaube ich nicht so gut.

263
00:24:46,560 --> 00:24:52,560
Und zum Vergleich, welches Verkehrsunternehmen fällt uns wahrscheinlich in Deutschland als erstes ein? Deutsche Bahn.

264
00:24:52,560 --> 00:25:01,560
Heißt, da habe ich die Deutsche Bahn als Referenz genommen und tatsächlich wird die Lufthansa, die ist aktuell, häufiger aufgerufen als die Deutsche Bahn.

265
00:25:01,560 --> 00:25:09,560
Also es ist eine Menge, die diese veraltete Information in dem Artikel sehen.

266
00:25:09,560 --> 00:25:19,560
Und wir stellen uns heute wahrscheinlich alle einen guten Wikipedia-Artikel so vor, dass da ausreichend Quellen sind.

267
00:25:19,560 --> 00:25:36,560
In dem Fall ist der Artikel Deutschland-Ticket, wo ich auch ein Auge drüber hatte, wo der auch erst 2022 geschrieben werden konnte, scheint glaube ich allen der Artikel vom ersten Eindruck zu passen.

268
00:25:36,560 --> 00:25:43,560
Jetzt haben wir aber sehr, sehr viele Artikel, die auch älter sind, wie hier über die Laptipenden.

269
00:25:43,560 --> 00:25:53,560
Der Artikel war zwischen 2004 und 2021 exzellent. Er hat jetzt in dem gescreenshoteten Bereich zum Beispiel keinen einzelnen Einzelnachweis.

270
00:25:53,560 --> 00:26:03,560
Und meiner Erfahrung nach zumindest ist es so, dass tendenziell dort, wo auch kein Einzelnachweis ist, eine Information eher falsch ist, als da, wo es Einzelnachweise gibt.

271
00:26:03,560 --> 00:26:10,560
Einfach weil man dann sich denkt, ja, habe ich irgendwie so schon noch in Erinnerung, dann wird sie auch schon so sein.

272
00:26:10,560 --> 00:26:22,560
Passiert heute noch, deswegen bin ich konsequent dafür, Artikel ohne, also Beiträge ohne Nachweis rauszunehmen, wenn man nicht selbst einen Nachweis findet.

273
00:26:22,560 --> 00:26:30,560
Oder genau auch hier zu überlegen, wie gehen wir damit um. Aber das ist halt ein Problem, das wir haben.

274
00:26:30,560 --> 00:26:35,560
Dementsprechend, wenn wir jetzt sagen, Leute, wir machen einfach weiter, so passt ja alles.

275
00:26:35,560 --> 00:26:43,560
Also wir haben einen Autoren-Schwund bei einer steigenden Artikelzahl, was die Artikelwartung ja heute kaum mehr möglich macht.

276
00:26:43,560 --> 00:26:48,560
Und die Artikel steigen weiter. Viele Artikel sind bereits heute veraltet.

277
00:26:48,560 --> 00:26:57,560
Wird es bei dem gleichen Trend kaum mehr möglich sein, der Artikelwartung wirklich noch nachzukommen?

278
00:26:57,560 --> 00:27:13,560
Wir haben ein großes Problem mit Artikel-Reliken auch, mit unbelegten Informationen, insbesondere aus Anfangszeiten, aber auch heute noch, wenn einfach mal ein Sichter oder auch ein aktiver Sichter einen Beitrag durchginkt, ohne das zu belegen.

279
00:27:13,560 --> 00:27:22,560
Der Schwere kommt noch hinzu und ich glaube, es wird auch die ganze Zeit unterschätzt, politisch motivierte Pay-Edits und Selbstdarstellungen.

280
00:27:22,560 --> 00:27:33,560
Und das Ganze wird halt einfach immer schwieriger, je weniger Leute wir haben, die Wikipedia ehrenamtlich bearbeiten oder zu einem gemein orientierten Zweck bearbeiten, sagt man so.

281
00:27:33,560 --> 00:27:41,560
Aber wie gehen wir damit um? Wir sagen bisher, ja, ist doof, aber eigentlich doch auch wieder egal.

282
00:27:41,560 --> 00:27:46,560
Ich meine, wir haben das Wissensmonopol. Uns macht eh keiner Konkurrenz. Passt doch alles.

283
00:27:46,560 --> 00:27:55,560
Und wenn man sagt, ja, aber ihr habt doch Verantwortung, Wikipedia darauf beziehen sich alle und sagen, ja, nee, Wikipedia ist doch eh nicht der richtige Weg.

284
00:27:55,560 --> 00:28:02,560
Und das ist halt sozusagen so, wie wir aktuell dastehen. Hat bisher ganz gut geklappt.

285
00:28:02,560 --> 00:28:13,560
Aber jetzt haben wir mit künstlicher Intelligenz eine Entwicklung, die es, sagen wir mal, beim aktuellen Niveau der Wikipedia ein leichtes Spiel macht.

286
00:28:13,560 --> 00:28:23,560
Mal Projekt und Projektivität. Und dann haben wir die ganze Zeit, das ist ein ganz ganz wichtiges Thema, das wir jetzt auch in der Zeit haben.

287
00:28:23,560 --> 00:28:30,560
Und das ist ein ganz wichtiges Spiel macht, mal projiziert auf das Jahr 2045, besser zu sein als Wikipedia.

288
00:28:30,560 --> 00:28:38,560
Und bisher haben alle einfach das Problem mit den menschlichen Ressourcen, was der Vorteil der Wikipedia mit den ganzen Ehrenamtlerinnen ist.

289
00:28:38,560 --> 00:28:44,560
Aber es wird halt voraussichtlich durch eine generative KI ersetzt werden.

290
00:28:44,560 --> 00:28:49,560
Darauf können wir uns meiner Meinung nach nicht mehr allzu sehr ausruhen.

291
00:28:50,560 --> 00:28:59,560
Und das Problem ist jetzt aktuell noch auch für die KI, die kann nur aus der Wikipedia sozusagen ihre Infos speisen.

292
00:28:59,560 --> 00:29:05,560
Was uns auch noch einen Vorteil gibt, weil die Literatur nicht preilizensiert ist.

293
00:29:05,560 --> 00:29:13,560
Jetzt nehmen wir aber mal an, dass kommerzielle Unternehmen sind, während die eine Lösung finden.

294
00:29:13,560 --> 00:29:21,560
Ich meine, wir haben ja auch YouTube zum Beispiel gehabt, die lange von der GEMA die ganze Musik nicht abspielen konnte.

295
00:29:21,560 --> 00:29:34,560
Sozusagen, dass man, dass die ganzen KI Unternehmen, ein KI Unternehmen durch eine Gebühr an die ganze Literatur braucht,

296
00:29:34,560 --> 00:29:41,560
die sie benötigt, um ihre KI sozusagen zu trainieren und schlauer zu machen.

297
00:29:41,560 --> 00:29:47,560
Und sobald die KI dann schlau ist als die Wikipedia, sage ich, ist die Wikipedia tot.

298
00:29:47,560 --> 00:29:54,560
Und jetzt ist natürlich erstmal die Frage, was daran schlecht ist, das ist doch technischer Fortschritt, dann haben wir eine bessere Quelle als die Wikipedia.

299
00:29:54,560 --> 00:30:04,560
Ich würde jetzt erstmal nicht sagen, dass es zwingend schlecht ist, aber kommerzielle Unternehmen sind profit- und nicht gemeinwohlorientiert.

300
00:30:04,560 --> 00:30:14,560
Das müssen wir uns immer vor Augen führen. Und sobald die Wikipedia, eine kollaborative Enzyklopädie weg ist, hat ein Wirtschaftsunternehmen,

301
00:30:14,560 --> 00:30:19,560
ein Typ wie dieser hier, die Macht auf das Monopol, auf das Wissen der Welt.

302
00:30:19,560 --> 00:30:24,560
Und ich meine, gerade mit Twitter inzwischen, ex, sehen wir wohin das führt.

303
00:30:24,560 --> 00:30:33,560
Also Fake News wird hier zunehmen, Meinungen, die ihm nicht gefallen, wenn man ihn kritisiert zum Beispiel, fallen weg.

304
00:30:33,560 --> 00:30:39,560
Im Prinzip, nun sind Manipulationen in einem viel größeren Umfang möglich, als wir heute in der Wikipedia erleben.

305
00:30:39,560 --> 00:30:47,560
Und das möchte ich nicht, deswegen komme ich zum Fazit, die Wikipedia muss sich weiterentwickeln, damit das freie Wissen überlegt.

306
00:30:47,560 --> 00:30:55,560
Jetzt wäre ich eigentlich sozusagen zu meinem Konzept gekommen, aber mir wurde noch eine Folie dazwischen reingeschoben.

307
00:30:55,560 --> 00:31:02,560
Danke. Ich finde Kevins Szenario sogar noch optimistisch, um ehrlich zu sein.

308
00:31:02,560 --> 00:31:10,560
Er geht davon aus, dass irgendeine KI schlauer sein wird als Wikipedia und dann die Wikipedia ersetzt, was ich sehr optimistisch finde.

309
00:31:10,560 --> 00:31:15,560
Ich fürchte, dass die KI nicht mal schlauer sein muss, um Wikipedia zu ersetzen.

310
00:31:15,560 --> 00:31:23,560
Sie muss bloß vielleicht zugänglicher sein oder sie muss einfacher an die Benutzer kommen oder besser dem Nutzerprofil entsprechen, als das Wikipedia tut.

311
00:31:23,560 --> 00:31:28,560
Und das kann sie tun, lange, lange bevor sie schlauer ist als Wikipedia.

312
00:31:28,560 --> 00:31:39,560
Das Szenario, das mir meistens Sorgen macht, ist, dass irgendwelche KI-basierten Mitbewerber der Wikipedia einen Großteil der Leserschaft rauben.

313
00:31:39,560 --> 00:31:50,560
Und das nicht mal unbedingt aus Brothaftigkeit, weil es vielleicht einfacher ist, weil es über Stimme geht, weil es auf dem Mobiltelefon vielleicht besser zugänglicher ist oder wie auch immer.

314
00:31:50,560 --> 00:32:03,560
Auf irgendeiner Art und Weise, vielleicht sogar auf Wikipedia-Wissen basierend, werden viele Leser von der Wikipedia ferngehalten und kriegen trotzdem ihre Antworten, was ja an sich gut klingt.

315
00:32:04,560 --> 00:32:19,560
Und dann, wegen dem Rückgang in der direkten Leserschaft, wenn der Lufthandsartikel eben nicht mehr 1000 Leser pro Tag hat, sondern vielleicht nur noch zwei oder drei oder vielleicht null Leser pro Tag hat,

316
00:32:19,560 --> 00:32:24,560
fällt die Motivation für viele Mitarbeiter weg, für die freiwilligen Mitarbeiter.

317
00:32:24,560 --> 00:32:27,560
Und dann brechen die freiwilligen Mitarbeiter noch viel stärker weg, als sie es jetzt schon haben.

318
00:32:28,560 --> 00:32:35,560
Statt 10.000 Mitarbeiter haben wir nur noch 100 Mitarbeiter und können natürlich nicht mehr die Wikipedia unterstützen.

319
00:32:35,560 --> 00:32:41,560
Sie wird statisch, sie wird nicht mehr von Hand aktualisiert in den meisten Artikeln und wird dadurch schließlich irrelevant.

320
00:32:41,560 --> 00:32:43,560
Und das ist das, was man meistens Angst macht.

321
00:32:43,560 --> 00:32:53,560
Aber jetzt kommt so eine Sache, dass diese ganzen Machine Learning Modelle, diese ganzen KI-Sachen ja auf Daten aus der Wikipedia und anderen Quellen beruhen.

322
00:32:53,560 --> 00:33:00,560
Und die anderen Quellen sind zum Beispiel Zeitungen, die auch nicht so sauber dastehen zurzeit und die auch in Schwierigkeiten sind.

323
00:33:00,560 --> 00:33:08,560
Und letzten Endes, mehr und mehr dieser Quellen verwenden dann auch KI, um neue Texte zu generieren.

324
00:33:08,560 --> 00:33:16,560
Wenn du jetzt aber anfängst, KI auf KI-Texten zu trainieren, kommt es zu etwas, das sich Modellkollapsen nennt.

325
00:33:17,560 --> 00:33:20,560
Die KI's werden plötzlich viel schlechter.

326
00:33:26,560 --> 00:33:29,560
Das passiert dann in einer gewissen Verzögerung natürlich.

327
00:33:29,560 --> 00:33:30,560
Das ist nicht sofort.

328
00:33:30,560 --> 00:33:44,560
Das passiert, wenn mehr und mehr Texte da sind und langsam den Korpus übernehmen, dass die Qualität der KI wahrscheinlich langsam unbemerkt, aber langsam schlechter wird und dann plötzlich viel schlechter wird.

329
00:33:46,560 --> 00:33:52,560
Zu dem Zeitpunkt ist dann die Wikipedia weg, fast sogar die Nachrichten großteils weg, nur noch 3-4 Zeitungen übrig oder so etwas.

330
00:33:52,560 --> 00:34:00,560
Und wir haben jetzt kaum noch eine Möglichkeit als normalsterblicher Wissen der Welt beizutragen.

331
00:34:00,560 --> 00:34:02,560
Was können wir denn noch machen, um da Sachen zu beobachten?

332
00:34:02,560 --> 00:34:14,560
Das ist so ein Zyklus, der sich selber ernährt und selber dazu führt, dass wir gute Strukturen dann nicht mehr haben.

333
00:34:16,560 --> 00:34:22,560
Was wir am meisten Angst haben, ist, dass Wikipedia ganz offensichtlich ein unglaublich unwahrscheinlicher Glücksfall der Geschichte ist.

334
00:34:22,560 --> 00:34:31,560
Es gibt kaum etwas wie Wikipedia und wenn das mal weg ist, wird es wahrscheinlich nicht so einfach zurückkommen, das wieder aufzubauen.

335
00:34:31,560 --> 00:34:34,560
Absichtlich kann man das wahrscheinlich nicht machen.

336
00:34:34,560 --> 00:34:37,560
Wikipedia ist nicht absichtlich das geworden, was es ist.

337
00:34:37,560 --> 00:34:44,560
Es ist ja durch Zufälle dahineingestoppt, weil es 20 andere Projekte in dem Bereich gab, die alle gescheitert sind.

338
00:34:47,560 --> 00:34:51,560
Dass wir da sowas hinzubekommen, ist fast unmöglich.

339
00:34:51,560 --> 00:34:56,560
Und ich glaube, wenn wir Wikipedia einmal verlieren, ist es auch weg.

340
00:34:56,560 --> 00:35:06,560
Und wird stattdessen durch, wie Kevin sagt, durch irgendeine Profit orientierte Firma mit einer Lösung ersetzt, was natürlich überhaupt keine Ersetzung ist.

341
00:35:06,560 --> 00:35:18,560
Das ist das, was wir am meisten Angst machen, dass wir einfach aus ökonomischer Sicht hinweg Strukturen wie die Wikipedia nebenher kaputt machen.

342
00:35:18,560 --> 00:35:29,560
Und dass da nichts ist, womit wir das aufhalten können, weil es eben ökonomisch etwas zwingende Folgen sind in der ganzen Sache.

343
00:35:30,560 --> 00:35:38,560
Aber jetzt zum guten Teil des Vortrags, was für Visionen haben, was für Ideen haben wir, um das alles zu verhindern?

344
00:35:38,560 --> 00:35:48,560
Genau. Und zwar habe ich neben einem konstanten Szenario auch ein sogenanntes revolutionäres Szenario.

345
00:35:48,560 --> 00:35:55,560
Und zwar, wie sich Wikipedia bis 2045, wahrscheinlich schon früher, entwickeln kann.

346
00:35:55,560 --> 00:36:05,560
Und machen jetzt mal eine Annahme. Also ich will mal die Annahme machen, KI ist nicht schlau, nicht wirklich intelligent, wie der Name sagt.

347
00:36:05,560 --> 00:36:11,560
Eine KI wird immer Fehler machen. Das heißt, es wird immer möglich sein, intelligenter zu sein als die KI.

348
00:36:11,560 --> 00:36:30,560
Heute hat allerdings entwicklungsbedingt die KI leichtes Spiel, besser zu werden als die Wikipedia, weil Wikipedia selbst auch weit weg von wirklich einer guten, einer richtig guten, zuverlässigen Quelle ist.

349
00:36:30,560 --> 00:36:35,560
Mit ihren veralteten, unbelegten, fehlerhaften und manipulierten Informationen.

350
00:36:35,560 --> 00:36:40,560
Das heißt, damit Wikipedia überlebt, muss Wikipedia besser werden.

351
00:36:40,560 --> 00:36:51,560
Und ein mögliches Ziel kann auch sein, dass wir sagen, okay, der KI überlassen wir das Feld vielleicht für einen alltäglichen Gebrauch.

352
00:36:51,560 --> 00:36:57,560
Wikipedia wird allerdings dafür zur akademischen Quelle weiter ausgearbeitet und verbessert.

353
00:36:57,560 --> 00:37:03,560
Und das dann als akademische Quelle auch wirklich genutzt werden kann.

354
00:37:03,560 --> 00:37:15,560
Zugleich ist es meiner Meinung nach unbedingt auch notwendig, das Feld der KI nicht der Privatwirtschaft zu überlassen.

355
00:37:15,560 --> 00:37:23,560
Also eine Wissens-KI, die die meisten Menschen immer noch informiert, muss gemeinwohl orientiert und nicht kommerziell ausgerichtet sein.

356
00:37:23,560 --> 00:37:34,560
Ich sage, wir wollen eine Wiki-Intelligence wollen wir haben, eine Intelligence-X, also SpaceX, X statt Twitter, wollen wir nicht haben.

357
00:37:34,560 --> 00:37:42,560
So, und jetzt kommen wir zu meinen Ideen, wie sich die Wikimedia weiterentwickeln könnte, um auch 2045 noch zu bestehen.

358
00:37:42,560 --> 00:37:50,560
Ich bin, glaube ich, relativ radikal. Ich habe tatsächlich wenige Artikel in der Anfangszeit selbst mitgeschrieben.

359
00:37:50,560 --> 00:37:55,560
Ich sage, unbelegte Infos müssen aus der Wikipedia entfernt werden, konsequent.

360
00:37:55,560 --> 00:38:04,560
Aber allerdings sage ich, okay, vielleicht diskutieren wir nochmal drüber, vielleicht lassen wir nochmal ein bisschen Wasser der Iduna runterlaufen

361
00:38:04,560 --> 00:38:11,560
und schauen, dass man vielleicht mit einer KI nach möglichen Quellen auch sucht, um passende Belege zu finden,

362
00:38:11,560 --> 00:38:22,560
auf den Autorinnen noch mal die Zeit gibt, nachzureferenzieren und vorhandene Informationen zu überprüfen in der Wikipedia.

363
00:38:22,560 --> 00:38:32,560
Wir wollen in meinen Augen, ich weiß, wir sehen es viele anders, allerdings glaube ich eher, wenn Wikimedia Deutschland ist bezahlt.

364
00:38:32,560 --> 00:38:41,560
Ich würde sagen, wir brauchen inzwischen Paid Editing, weil wir sehen, wie die Userzahlen runtergehen, und zwar im gemeinwohl orientierten Sektor.

365
00:38:41,560 --> 00:38:46,560
Hier kommt das Wort wieder. Was sind es, zum Beispiel Wissenschaftsinstitute wie Hochschulen und so.

366
00:38:46,560 --> 00:38:54,560
Und das wollen wir nicht selbst bezahlen, aber wir wollen es fördern, wir wollen nicht mehr dagegen sein, wie ich den Eindruck habe, dass wir bis heute sind.

367
00:38:55,560 --> 00:39:01,560
Was noch on top gibt, Peer Review Verfahren von Wikipedia Artikeln, dass man zum Beispiel jetzt beim Klimawandel schaut,

368
00:39:01,560 --> 00:39:10,560
aber bei Covid-19, bei solchen Artikeln vielleicht später auch weniger brisante Themen, dass man die Peer Reviewen lässt

369
00:39:10,560 --> 00:39:18,560
und dann halt auch eine Bestätigung hat von Wissenschaftlerinnen, dass Wikipedia richtig ist in diesem Artikel.

370
00:39:18,560 --> 00:39:30,560
Public-Private-Partnership für eine Wikimedia-Intelligence ist denke ich notwendig, weil anders kann man so etwas nicht finanzieren.

371
00:39:30,560 --> 00:39:42,560
Aber Dani hat das gesagt, wir sind nicht Google, wir sind nicht Elon Musk, wir sind gemeinnützig, da müssen wir uns Konzepte überlegen.

372
00:39:42,560 --> 00:39:47,560
Ich weiß allerdings gerade jetzt, es gibt ja auch immer Diskussionen über den öffentlich-rechtlichen Rundpunkt,

373
00:39:47,560 --> 00:39:57,560
ne, wollen wir nicht finanzieren. Eventuell muss man dann halt auch überlegen, kommt ein Private-Private-Partnership in Frage.

374
00:39:57,560 --> 00:40:06,560
Also sozusagen zum Beispiel mit Google, weil das Ding ist, ich weiß nicht, ob jeder von Google vielleicht am Ende auch ihr Mastesfeld überlassen möchte,

375
00:40:07,560 --> 00:40:17,560
vielleicht sehen Sie da auch Positives, also sollte man sich offen lassen, wenn mit dem öffentlichen Sektor eine harsche Partnerschaft nicht möglich ist.

376
00:40:17,560 --> 00:40:27,560
Und was auch in Betracht gezogen werden sollte, wäre zumindest Teile der Wikimedia eventuell auch öffentlich-rechtlich zu machen.

377
00:40:28,560 --> 00:40:38,560
Wir haben jetzt zum Beispiel auch Wikimedia Europe gestartet, dass man sagt, okay, Wikimedia Europe ist eine öffentlich-rechtliche Institution der Europäischen Union.

378
00:40:38,560 --> 00:40:46,560
Das sind ein paar Anregungen, ich weiß, es sind viele, es sind einige und ich denke, da gibt es großen Diskussionsbedarf.

379
00:40:46,560 --> 00:40:55,560
Deswegen kommen wir zum nächsten Teil, die Diskussion, wo ich jetzt alle Punkte noch einmal separat aufgegriffen habe und euch fragen möchte.

380
00:40:56,560 --> 00:41:01,560
Also kommen wir zur dritten Frage, sollen unbelegte Infos konsequent gelöscht werden?

381
00:41:11,560 --> 00:41:14,560
Also die Antwort auf die Frage ist relativ simpel, es geht praktisch gar nicht.

382
00:41:14,560 --> 00:41:17,560
Ihr könnt nicht einfach alles Unbelegtes löschen, dann bleibt nicht mehr viel übrig.

383
00:41:17,560 --> 00:41:24,560
Es muss einen Mittelweg geben. Also wie du ja selbst schon angedeutet hast, lasst uns noch mal schauen, was wir mit den unbelegten Infos machen.

384
00:41:26,560 --> 00:41:31,560
Vielleicht auch eben zu diesem Unbelegten, was ist unbelegter?

385
00:41:31,560 --> 00:41:33,560
Da müssen wir erstmal definieren, was heißt unbelegt?

386
00:41:33,560 --> 00:41:40,560
Ist unbelegt, wenn in der Literaturliste das Werk angegeben hat, mit dem ich den Artikel geschrieben habe oder muss er definitiv fußen?

387
00:41:40,560 --> 00:41:49,560
Also zum Beispiel, das heißt zum Beispiel, der Artikel ist durchaus belegt, weil ich die Literatur angeben habe, mit dem ich geschrieben habe.

388
00:41:49,560 --> 00:41:53,560
Aber es ist halt nicht jeder Abschnitt belegt, mit welcher Seite er ist.

389
00:41:53,560 --> 00:42:02,560
Das heißt, das wäre dann sozusagen auch eine Gefahr, dass man sagen, das Artikel, die sehr wohl belegt sind, vielleicht nicht eben, das System hat es früher noch nicht gegeben.

390
00:42:02,560 --> 00:42:06,560
Das heißt, die Quellen sind durchaus genannt, aber nicht in der Form, wie man sie heute nutzt.

391
00:42:06,560 --> 00:42:13,560
Von dem her ist er schon belegt, aber vielleicht in der Sichtweise von einer heutigen Schreibweise halt anders belegt.

392
00:42:24,560 --> 00:42:31,560
Ich glaube, die Frage ist vor allen Dingen, wenn man so etwas machen wollen würde, wie würde man das denn anstellen?

393
00:42:31,560 --> 00:42:38,560
Also es wurde ja schon gesagt, wenn man jetzt quasi maschinell, botmäßig einfach alles rausschmeißt, was unbelegt ist,

394
00:42:38,560 --> 00:42:46,560
haben wir eine zerflatterte Enzyklopädie, die für niemanden mehr hilfreich ist und folglich auch von niemanden mehr gewartet werden wird.

395
00:42:46,560 --> 00:42:50,560
Also das wäre der Schritt, das ist so ein bisschen Selbstmord aus Angst vor dem Tod.

396
00:42:51,560 --> 00:43:00,560
Wenn wir sagen, wir sehen das quasi als Transformationsschritt, dass wir sagen, wir haben den Anspruch, dass alles belegt sein muss,

397
00:43:00,560 --> 00:43:04,560
dann ist mein Stand zumindest, dass wir den Anspruch eigentlich schon länger haben.

398
00:43:04,560 --> 00:43:10,560
Und das dauert Jahrzehnte, das bei den ganzen Legacy-Inhalten zu machen.

399
00:43:11,560 --> 00:43:21,560
Und dann muss ich persönlich jetzt aus meiner Erfahrung auch dafür warnen, dass man das an so Formalismen festmacht, ob eine Information belegt ist oder nicht.

400
00:43:21,560 --> 00:43:28,560
Ich habe genügend Einzelnachweise gesehen, wo der Einzelnachweis, das, was da stand, nicht wirklich gesagt hat.

401
00:43:28,560 --> 00:43:32,560
Wo auch der Einzelnachweis schlicht und ergreifend Mist war.

402
00:43:32,560 --> 00:43:37,560
Und da ist es mir lieber, da gibt es einen Fachartikel, unten drunter steht Literatur

403
00:43:37,560 --> 00:43:42,560
und es sind die drei wichtigsten wissenschaftlichen Veröffentlichungen zu dem Ding genannt und es sind keine Einzelnachweise drin.

404
00:43:42,560 --> 00:43:51,560
Aber wenn man das Buch liest, ist es deckungsgleich mit dem Artikel, als dass man so ein Sammelsurium von zueinander widersprechenden Quellen hat.

405
00:43:51,560 --> 00:43:59,560
Und das automatisiert irgendwie auch nur zu ranken und zu werten, um zu sagen, ja, ist jetzt gut oder nicht.

406
00:44:00,560 --> 00:44:04,560
Das ist ja das Schwierige. Und wir hatten ja jetzt heute früh schon diese Diskussion.

407
00:44:04,560 --> 00:44:10,560
Was ist Wikipedia überhaupt? Und ich weiß, es geht jetzt ein bisschen von der Frage da weg.

408
00:44:10,560 --> 00:44:18,560
Aber ihr habt ja eben gesagt, wenn die KI so schlau ist wie Wikipedia, wie messen wir denn dieses Schlau?

409
00:44:18,560 --> 00:44:29,560
Ist es schlau nützlich aus Nutzerinnen Sicht? Ist es schlau irgendein objektiv messbarer, quantifizierbarer Wissensbestand?

410
00:44:29,560 --> 00:44:33,560
Ist es schlau die Geschwindigkeit, in der da geantwortet wird?

411
00:44:33,560 --> 00:44:39,560
Die Umfassenheit der Inhalte, die davor liegen, die Tiefe der Inhalte, das sind ja ganz unterschiedliche Kriterien.

412
00:44:39,560 --> 00:44:45,560
Und ich könnte mir vorstellen, dass in diesen unterschiedlichen Kriterien wir und die KI dauerhaft unterschiedlich abschneiden werden.

413
00:44:45,560 --> 00:44:53,560
Und ich glaube auch, dass gewisse Dinge, gewisse Szenarien, von denen ihr da als Trussszenarien gesprochen habt, längst eingetreten sind.

414
00:44:53,560 --> 00:45:02,560
Also der Knowledge Craft beispielsweise, das war ja noch vor KI-Technologie, am Anfang zumindest, der hat uns massiv Zugriffszahlen weggegraben.

415
00:45:02,560 --> 00:45:12,560
Also dass weniger Menschen auf unsere Enzyklopädie kommen und die Inhalte dort konsumieren und sie viel häufiger.

416
00:45:12,560 --> 00:45:22,560
Also ich würde steile These, ich habe keine Zahlen dazu, aber ich würde sagen, dass schon heute die Mehrheit der Wikipedia zusammengetragenen Inhalte nicht in der Wikipedia gelesen wird.

417
00:45:22,560 --> 00:45:33,560
Bin ich mir ziemlich sicher. Und deshalb müssen wir uns vielleicht auch mal ein bisschen ehrlich machen und sagen, dass wir schon längst in diesem Zeitalter sind,

418
00:45:33,560 --> 00:45:40,560
wo es eine Abkopplung der Autorenschaft und des Mediums von seinen Inhalten gibt.

419
00:45:40,560 --> 00:45:49,560
Und das ist das, womit wir irgendwie umgehen müssen. Und ich weiß nicht, ob eine Hyperakademisierung, da bin ich zumindest skeptisch, ob das der richtige ist.

420
00:45:49,560 --> 00:45:58,560
Ja, ich meine es war in dem Fall zwei Ebenen. Einmal die Wiki-Intelligenz und einmal die akademische Wikipedia.

421
00:45:59,560 --> 00:46:10,560
Ja klar, aber es ist also ich meine der Reiz des Projekts, ohne das jetzt auswälzen zu wollen, dieses jeder kann mitmachen, das mag man jetzt kindlich und 90er Jahre Internetdenke halten.

422
00:46:10,560 --> 00:46:21,560
Aber das ist das ist der große Gründungs Mythos dieses Projekts und letzten Endes die Narrative, die nach meiner Einschätzung Großteil der Menschen, die dazu beitragen, auch dabei hält.

423
00:46:22,560 --> 00:46:26,560
In dem Augenblick, wo ich das abschneide und es gab ja verschiedene Versuche, solche Dinge zu machen.

424
00:46:26,560 --> 00:46:31,560
Ja, also solche Peer Review Encyclopedien und so was meines Wissens sind die allesamt gescheitert.

425
00:46:31,560 --> 00:46:38,560
Mein Problem ist ja, wir haben jetzt mit der Karriere was bei der Hausführung, wo eine Änderung passieren muss.

426
00:46:38,560 --> 00:46:42,560
Da sind wir uns nicht alle einig. Wer sagt, wir brauchen das nicht?

427
00:46:46,560 --> 00:46:47,560
Gehen wir hier einfach in die Fragen weiter.

428
00:46:51,560 --> 00:46:56,560
Also ja, ich hatte mich bloß verklickt.

429
00:46:56,560 --> 00:47:00,560
Eine Sache möchte ich kurz erwähnen.

430
00:47:00,560 --> 00:47:04,560
Das sind das sind Vorschläge, die von Kevin kommen.

431
00:47:04,560 --> 00:47:08,560
Also ich möchte nicht hinter hinter jeden auch meine und oder Lydia ist namens.

432
00:47:08,560 --> 00:47:13,560
Eine Sache zu den unbelegten Infos allerdings.

433
00:47:13,560 --> 00:47:19,560
Ein Forscher von Kevin war ja, wir können ja eine KI verwenden, um dann Belege zu finden und ähnliches, um das verbessern.

434
00:47:19,560 --> 00:47:23,560
Und ich muss sagen, das wird gar nicht so einfach, wie sich das anhört.

435
00:47:23,560 --> 00:47:31,560
Ich habe vor kurzem habe ich versucht, den Geburtsort einer Person herauszufinden, die in verschiedenen Wikipedia unterschiedlich angegeben war.

436
00:47:31,560 --> 00:47:42,560
Und KI und die suchen, egal ob es jetzt Google oder Bing war oder was auch immer, sind alle einfach durch Wikipedia so stark beeinflusst,

437
00:47:42,560 --> 00:47:48,560
dass es unglaublich schwierig ist, an die eigentliche Quellen einzukommen und die auch viele andere Seiten übernehmen.

438
00:47:48,560 --> 00:47:53,560
Wir haben einfach Daten aus Wikipedia heraus. Für viele Sachen ist es zu Zug schon lange abgelaufen.

439
00:47:53,560 --> 00:47:59,560
Es ist es ist schwierig, Quellen zu finden, die nicht von Wikipedia potenziell kontaminiert sind.

440
00:47:59,560 --> 00:48:06,560
Und ich glaube, dass das ist, was wir am besten machen, falls wir eine KI verwenden würden, um Quellen zu finden,

441
00:48:06,560 --> 00:48:13,560
machen wir quasi Zitokinesis auf Hyperdrive und finden dann Quellen, die eben aus der Wikipedia heraus geschehen.

442
00:48:13,560 --> 00:48:20,560
Wenn wir da nicht Menschen drin haben, der kritisch daran geht, glaube ich nicht, dass das eine gute Chance ist.

443
00:48:20,560 --> 00:48:26,560
Ich würde dem zustimmen und vielleicht, um uns ein bisschen wieder zurück zur Frage zu bringen.

444
00:48:26,560 --> 00:48:29,560
Ich bin mir auch nicht sicher, ob es wirklich hilft.

445
00:48:29,560 --> 00:48:39,560
Ich glaube, es ist unheimlich wichtig, dass Wikipedia und die anderen Wikimedia Projekte Orte sind, wo Leute verifizierbares belegtes Wissen finden.

446
00:48:39,560 --> 00:48:48,560
Gleichzeitig gibt es aber einen Grund, warum sie mehr zu JetGPT gehen.

447
00:48:48,560 --> 00:48:56,560
Und das ist nicht, weil JetGPT wahrer ist oder bessere Informationen bringt.

448
00:48:56,560 --> 00:49:05,560
Sie gehen dahin wegen Convenience, weil der Text dafür sie aufbereitet ist, auf eine Art und Weise, den sie besser verstehen können, zum Beispiel.

449
00:49:06,560 --> 00:49:12,560
Und ich glaube, wir sollten uns auch überlegen, wie man da ranlegen kann.

450
00:49:12,560 --> 00:49:15,560
Warum ist es so viel einfacher?

451
00:49:15,560 --> 00:49:23,560
Warum ist es zum Beispiel so schwer, für viele Leute einen sehr wissenschaftlich geschriebenen Wikipedia Artikel zu verstehen?

452
00:49:23,560 --> 00:49:29,560
Und kann man da ansetzen? Nur als eine Möglichkeit.

453
00:49:30,560 --> 00:49:34,560
Also wir kommen ein bisschen ab von der eigentlichen Frage, deswegen gehe ich mal zur nächsten.

454
00:49:34,560 --> 00:49:37,560
Damit wir auch ein bisschen mehr Zeit haben.

455
00:49:37,560 --> 00:49:44,560
Soll gemeinnütziges Paid Editing, also jetzt zum Beispiel die, die wir von Wissenschaft einrichten, wie Hochschulen,

456
00:49:44,560 --> 00:49:52,560
müssen besser angesehen werden, also dass wir sagen, so etwas ist in Ordnung für uns oder auch gefördert werden, wie ich es vorschlagen würde.

457
00:49:52,560 --> 00:49:54,560
Wie seht ihr das?

458
00:49:54,560 --> 00:49:57,560
Ja, ich bin auf der Suche.

459
00:49:57,560 --> 00:49:59,560
Mikro, wo ist das Mikro Wort?

460
00:50:12,560 --> 00:50:22,560
Also ich bin schon der Meinung, dass Wissen von Experten zusammengetragen werden sollte, in komplizierten Gebieten.

461
00:50:22,560 --> 00:50:31,560
Das ist also wirklich für Studenten oder für Professoren, ja, für die sollte es Paid Editing geben können.

462
00:50:31,560 --> 00:50:37,560
Ich sehe da kein Problem. Wir wollen ja Wissen fördern.

463
00:50:37,560 --> 00:50:46,560
Und ob das jetzt bezahlt oder unbezahlt ist, solange es neutral ist und solange es korrekt ist, sehe ich da kein Problem.

464
00:50:52,560 --> 00:50:54,560
Solange es deklariert ist.

465
00:51:06,560 --> 00:51:13,560
Ich würde dir als Frage, und gleich werde ich auch gleich eine Frage aus dem Chat anbrille, aber ich würde eine Gegenfrage stellen wollen.

466
00:51:13,560 --> 00:51:20,560
Also Artificial General Intelligence ist ja seit den 1950ern quasi fast fertig und auch so immer wieder mal fast fertig.

467
00:51:20,560 --> 00:51:30,560
Und habt ihr euch mal darüber Gedanken gemacht, wie es dazu kommt, dass für euch es leichter vorstellbar ist, dass jetzt wirklich AGI so wirklich fertig ist und keinen Model Collapse erleiden wird, sondern wirklich alles verändern wird.

468
00:51:30,560 --> 00:51:44,560
Dass es für euch eher vorstellbar ist, als dass man nur über Bezahlung in Zukunft seinen Unterhalt verdienen kann und leben kann und nur sich das so freieisen kann, überhaupt beizutragen für Projekte wie Wikipedia.

469
00:51:44,560 --> 00:51:52,560
Na ja, ich meine, wir haben ja gesehen, wie die Zahl der Autorinnen und Autoren zurückgegangen ist.

470
00:51:52,560 --> 00:52:06,560
Warum es für euch leichter vorstellbar ist, dass bald wirklich eine richtige Künstlichen, also eine wirkliche Artificial General Intelligence kommen wird.

471
00:52:06,560 --> 00:52:18,560
Also das ist für euch leichter vorstellbar ist, nachdem es jetzt irgendwie 80 Jahre nicht funktioniert hat, als dass es keine Alternative geben wird zu, man kann nur mit Bezahlung sich den Lebensunterhalt verdienen.

472
00:52:18,560 --> 00:52:22,560
Also, da kann ich jetzt auch nur für mich sprechen.

473
00:52:22,560 --> 00:52:28,560
Ich meine, wir sehen ja tatsächlich, dass jetzt der KI-Markt rasch voranschreitet.

474
00:52:28,560 --> 00:52:34,560
Also Chat-GVTs ist das beste Beispiel. Es hat ja jetzt auch verschiedene Abiturs geschafft.

475
00:52:34,560 --> 00:52:52,560
Und ich meine sozusagen, das Modell, dass man das mit Daten füttert und so trainiert, ist halt die Sache, wenn man es dann halt mit akademischen Daten füttert, dann kann es die natürlich auch ausspucken.

476
00:52:52,560 --> 00:52:54,560
Ich glaube, Daniel, du bist mehr Experte als ich.

477
00:52:57,560 --> 00:53:02,560
Ich stimme mit dem Kommentar. Von wem kommt der Kommentar? Ich kann es leider nicht sehen, aber der war großartig.

478
00:53:04,560 --> 00:53:06,560
Da hinten jemand.

479
00:53:07,560 --> 00:53:09,560
Der ist aus dem Chat, oder?

480
00:53:10,560 --> 00:53:12,560
Der Kommentar ist großartig.

481
00:53:12,560 --> 00:53:14,560
Danke, Daniel. Hallo, grüße Femestika hier.

482
00:53:14,560 --> 00:53:22,560
Ich stimme dir vollkommen zu. Ich denke nicht, dass AGE um die Ecke ist.

483
00:53:22,560 --> 00:53:31,560
Ich denke, dass da zurzeit sehr viel mit heißem Wasser gekocht wird, was gar nicht so, dass da sehr viel Dampf dabei ist.

484
00:53:31,560 --> 00:53:39,560
Ja, Sachen werden sich auf alle Fälle ändern, überhaupt keine Frage. Aber nicht so grundlegend, dass wir alles umwerfen müssen.

485
00:53:40,560 --> 00:53:42,560
Paid Editing macht mir unglaublich viele Bauchschmerzen.

486
00:53:43,560 --> 00:53:54,560
Vor allem wegen der Ergebnisse aus der Wissenschaft, die halt zeigen, dass Mixed Incentives Modelle, also Modelle, wo einige Leute freiwillig beitragen, andere Leute bezahlt werden,

487
00:53:54,560 --> 00:53:59,560
zu unglaublichen Schwierigkeiten bei der Motivation der Unbezahlten führt.

488
00:53:59,560 --> 00:54:02,560
Und wir haben das wieder und wieder gesehen in verschiedenen Bereichen.

489
00:54:02,560 --> 00:54:10,560
Das ist sehr, sehr schwierig, diese Sachen zu mischen und trotzdem die Motivation der freiwilligen, der unbezahlten Mitarbeiter aufrechtzuerhalten.

490
00:54:10,560 --> 00:54:22,560
Und ich glaube, wenn wir jetzt irgendwie 100 bezahlte Mitarbeiter reinbringen und dafür 10.000 unbezahlte verlieren, ist das nicht unbedingt ein Vorteil.

491
00:54:22,560 --> 00:54:35,560
Ich glaube, das Ziel der Wikipedia ist es, dass jeder beitragen kann und hinzufügen kann.

492
00:54:35,560 --> 00:54:42,560
Und wenn wir an der Motivation arbeiten, würde ich vorstellen, dass wir unglaublich vorsichtig da rangehen.

493
00:54:42,560 --> 00:54:57,560
Und wenn wir so etwas wie AGI haben, sollten wir uns überlegen, ob wir nicht eine Grundlegendierung unserer ökonomischen Struktur brauchen.

494
00:54:57,560 --> 00:55:02,560
Und ein bisschen mehr Star Trek und ein bisschen weniger Terminator, das wäre schon ganz cool.

495
00:55:02,560 --> 00:55:18,560
Ich muss jetzt tatsächlich ein bisschen sprengen hier, weil alle die Fragen oder die Vorschläge, die jetzt hier quasi auf dem Tisch liegen,

496
00:55:18,560 --> 00:55:22,560
das sind die Diskussionen, die wir eigentlich seit Larry Sänger diskutieren hier.

497
00:55:22,560 --> 00:55:27,560
Wir machen wieder das Gleiche. Wir sagen, ja, das muss akademischer werden.

498
00:55:27,560 --> 00:55:32,560
Wir müssen den Nachweis, das ist das Problem. Alle diese Dinge sind tausendmal durchdiskutiert worden.

499
00:55:32,560 --> 00:55:39,560
Das denke ich mir, das ist doch nicht die Antwort auf die Frage, wenn es da irgendwie AI auf der anderen Seite ist.

500
00:55:39,560 --> 00:55:49,560
Der Mehrwert von Wikipedia und den ganzen Schwesterprojekten ist doch AI. Es geht doch darum, menschenschlauer zu machen.

501
00:55:49,560 --> 00:55:56,560
Das ist ein riesiger Lernprozess. Wir haben es heute in der Früh gehört, als gesagt worden ist, das Aushandeln von Wissen ist der entscheidende Punkt.

502
00:55:56,560 --> 00:56:01,560
Oder ist ein Einstellungsmerkmal von Wikipedia. Das kriegst du sonst nirgendwo in dieser Form.

503
00:56:01,560 --> 00:56:08,560
Und da sind riesige Lernprozesse dahinter, die permanent passieren, die hier bei uns passieren, mit Leuten da draußen passieren.

504
00:56:08,560 --> 00:56:18,560
Und eine Idee oder der Mehrwert ist ja auch, dass Leute in der Lage sind, da draußen das zu nutzen, selber schlau zu werden, sich selber auch zu informieren.

505
00:56:18,560 --> 00:56:22,560
Und die Frage, ist das immer schon die fertige Antwort, war noch nie die Antwort von Wiki.

506
00:56:22,560 --> 00:56:28,560
Wiki ist immer ein Tool, um an irgendwas zu arbeiten und weiterzuentwickeln und natürlich auch zu belegen.

507
00:56:28,560 --> 00:56:40,560
Die Frage, die wir uns stellen müssen, ist, inwieweit kann uns die KI helfen, diese unendliche Rödelarbeit abzunehmen, die an vielen Stellen eben passieren.

508
00:56:40,560 --> 00:56:48,560
Ich wollte vorher den Witz machen, vielleicht kann die KI wenigstens die Löschdiskussion führen, weil es kommt nämlich in immer dieselbe Schmarrn.

509
00:56:48,560 --> 00:56:54,560
Und dann sollen sie halt die Löschdiskussion mit irgendwelchen Unternehmen führen, die versuchen, irgendwie ihr Zeug reinzubringen.

510
00:56:54,560 --> 00:57:03,560
Ich bin ja selber Opfer und Täter auch. Also insofern, das ist ein bisschen witzig jetzt, aber ernsthaft, ist das, was ist revolutionär an der Stelle?

511
00:57:03,560 --> 00:57:13,560
Das Revolutionäre an Wikipedia war nie im Prinzip, das digitale Brockhaus oder das digitale Fachlexikon für Medizin zu werden,

512
00:57:13,560 --> 00:57:18,560
sondern Kommunikation, wissensbasierte Kommunikation zu organisieren.

513
00:57:18,560 --> 00:57:30,560
Und wovor wir Angst haben, ist, es ist nicht mehr sichtbar, wir haben Angst, andere Sachen sind nur convenient, sind also schöner zu benutzen, sind leicht in der Sprache, sind schneller.

514
00:57:30,560 --> 00:57:38,560
Aber das kann uns doch alles helfen. Ich meine, da müssen wir jetzt wirklich nachdenken und sagen, okay, warum gibt es von dem Artikel nicht eine schöne Zusammenfassung vorne dran?

515
00:57:38,560 --> 00:57:45,560
Das ist ja das, was Danny letztlich dann sagt, eine Kinder Wikipedia, die kann mir eine KI schreiben.

516
00:57:45,560 --> 00:57:49,560
Das kann sie. Und da kann ich es wirklich saugut nutzen.

517
00:57:49,560 --> 00:58:00,560
Und deswegen war ich dafür, in der ganzen Stoßrichtung dieser Fragestellung, sich sozusagen wieder zurückzubewegen auf die Diskussion, die wir 2001 345 geführt haben.

518
00:58:00,560 --> 00:58:07,560
Und zu sagen, okay, wir müssen die Diskussion von 2023 führen und dürfen ruhig auch echt.

519
00:58:07,560 --> 00:58:13,560
Ja, das ist nicht nur Idealismus, das ist wirklich revolutionär und das muss man weiterführen.

520
00:58:13,560 --> 00:58:17,560
Und da kann uns die KI an manchen Stellen helfen und fertig.

521
00:58:17,560 --> 00:58:19,560
Also lasst uns vorwärts gehen.

522
00:58:19,560 --> 00:58:29,560
Ich komme einfach mal zur nächsten Frage.

523
00:58:29,560 --> 00:58:36,560
Dann kann ich ja auch noch mal auf die vorherige Frage zurückkommen.

524
00:58:36,560 --> 00:58:42,560
Die nächste Frage wäre, haltet ihr sinnvoll hier verfahren in Wikipedia ein zu finden?

525
00:58:42,560 --> 00:58:44,560
Hatten wir auch teilweise schon andiskutiert.

526
00:58:44,560 --> 00:58:49,560
Da ich auf den Hochschulquartext eingehen wollte, trifft sich das vielleicht ganz gut.

527
00:58:49,560 --> 00:59:02,560
Also als jemand, der mal versucht hat, das in der Hochschule zu implementieren, mit Studis, die dann halt Artikel zu dem Fachgebiet, in dem Fall Design und UX, schreiben sollten, weiß ich, dass es ein bisschen mühselig ist.

528
00:59:02,560 --> 00:59:05,560
Das waren jetzt Bachelor-Studenten an der Fachhochschule.

529
00:59:05,560 --> 00:59:07,560
Da ist es wahrscheinlich noch eher zu implementieren.

530
00:59:07,560 --> 00:59:16,560
Ich glaube, wir tun gut daran, wenn wir uns immer mal wieder fragen, warum sollen Menschen welche Dinge in der Wikipedia oder mit der Wikipedia machen?

531
00:59:16,560 --> 00:59:19,560
Was ist die intrinsische Motivation von Menschen?

532
00:59:19,560 --> 00:59:22,560
Also klar, Geld ist eine intrinsische Motivation.

533
00:59:22,560 --> 00:59:30,560
Aber wenn ich jetzt in der Hochschule sage, hey, ihr kriegt Trittmittel und schreibt dafür Wikipedia Artikel, dann gibt es ja trotzdem noch andere Motivationen, die die haben.

534
00:59:30,560 --> 00:59:33,560
Und wir haben ja die total genannten Motivationen, die wir haben.

535
00:59:33,560 --> 00:59:40,560
Und das ist für jeden Wissenschaftler da draußen in irgendeiner Hochschule dieses Landes im Endeffekt eine Art Berufsverbot.

536
00:59:40,560 --> 00:59:50,560
Also wir erwarten von, dass sie das, was sie machen, wissen, schaffen, nicht machen, sondern das, was wir machen, nämlich Wissen zusammen tragen.

537
00:59:50,560 --> 00:59:59,560
Und es liegt, glaube ich, im im Sinn und der Idee von Forschung und Wissenschaft, dass es eine Art Berufsverbot ist.

538
00:59:59,560 --> 01:00:08,560
Es liegt, glaube ich, im im Sinn und der Idee von Forschung und Wissenschaft, dass sie eben das macht, Wissen schaffen und neu aushandeln.

539
01:00:08,560 --> 01:00:12,560
Aber die Kanonisierung dieses Wissens, das ist ein ganz anderer Schritt.

540
01:00:12,560 --> 01:00:15,560
Die schreiben Primär- und Sekundärliteratur maximal.

541
01:00:15,560 --> 01:00:18,560
Wir sind aber im Tertiärliteratursektor.

542
01:00:18,560 --> 01:00:21,560
Wir sind im Zusammentragen dessen, was da geschrieben wird.

543
01:00:21,560 --> 01:00:28,560
Das heißt, eigentlich sollte es überhaupt nicht mehr notwendig sein, bei uns zu peer reviewn, weil die Sachen, also zumindest was wissenschaftliche Studien angeht,

544
01:00:28,560 --> 01:00:32,560
die wir zusammentragen, idealerweise peer reviewed sind.

545
01:00:32,560 --> 01:00:41,560
Und deshalb sehe ich es auch außerordentlich skeptisch, so zu tun, als könnten wir vergleichbare Prozesse hier implementieren.

546
01:00:41,560 --> 01:00:45,560
Also wir sind keine Open Access Plattform für wissenschaftliche Inhalte.

547
01:00:45,560 --> 01:00:54,560
Und wir können und werden es wahrscheinlich auch nie werden, weil wir die Infrastruktur dafür nicht in der Breite zur Verfügung stellen können,

548
01:00:54,560 --> 01:00:58,560
dass wir die reine Quantität an Inhalten, die wir heute haben.

549
01:00:58,560 --> 01:01:01,560
Also wir reden von vier Millionen Artikel.

550
01:01:01,560 --> 01:01:08,560
Also vier Millionen Artikel, in denen gleichzeitig quasi ein peer review stattfindet, halte ich für ziemlich unrealistisch.

551
01:01:08,560 --> 01:01:13,560
Und alles, was das runterschrumpft, tut einen großen Nutzen dieses Projekts runterfahren.

552
01:01:13,560 --> 01:01:18,560
Und dann bliebe noch als letztes die Frage, wer ist denn da überhaupt ein peer?

553
01:01:18,560 --> 01:01:25,560
Also muss ich promoviert sein, um beispielsweise einen Artikel über Nacktschnecken mit editieren zu dürfen?

554
01:01:25,560 --> 01:01:30,560
Also reicht da Biologie oder kann ich da noch Geisteswissenschaftler sein?

555
01:01:35,560 --> 01:01:39,560
Also das macht ein so großes Fass auf, dass ich nicht glaube, dass es uns weiterbringt.

556
01:01:39,560 --> 01:01:46,560
Ich meine, das ist jetzt nicht für alle vier Millionen Artikel gedacht, aber jetzt sagen wir mal, die kritisch sind.

557
01:01:46,560 --> 01:01:48,560
Also bestimmte Themen.

558
01:01:57,560 --> 01:02:04,560
Gleichzeitig höre ich jeder WikiCon, wenn ich frage Autoren schwund, es geht immer um das Thema Autoren schwund, höre ich immer wieder.

559
01:02:04,560 --> 01:02:13,560
Wir wünschen uns neue Autoren und Autorinnen, die Fachleute sind und in ihrem Fachbereich gute Artikel sauber schreiben können.

560
01:02:13,560 --> 01:02:17,560
Das ist der Wunsch, den ich immer wieder höre aus der Wikipedia Community.

561
01:02:17,560 --> 01:02:21,560
Renten haben wir genug, Studenten haben wir genug, aber wir brauchen Fachleute.

562
01:02:21,560 --> 01:02:25,560
Aber bezahlen wollen wir sie nicht.

563
01:02:25,560 --> 01:02:27,560
Ist ein Widerspruch.

564
01:02:28,560 --> 01:02:32,560
Es gibt und ich bin total bei auch bei Danny, wo ich sage, in Riesengefahr.

565
01:02:32,560 --> 01:02:39,560
Aber es gibt ein paar Modelle, Kultur- und Gedächtnisinstitutionen, zum Beispiel Museen denken sich nicht neues Wissen aus.

566
01:02:39,560 --> 01:02:41,560
Museen dokumentieren auch nur.

567
01:02:41,560 --> 01:02:43,560
Das passt zu dem, was wir machen.

568
01:02:43,560 --> 01:02:52,560
Und es gibt auch schon Projekte, wo in einem Museum jemand sitzt, der indirekt durchs Museum nicht von Wikimedia Deutschland dafür bezahlt wird, auch in Wikipedia zu helfen.

569
01:02:52,560 --> 01:02:54,560
Öffentliches Geld, öffentliches Gut.

570
01:02:54,560 --> 01:02:58,560
Und der Edit anlandet dann nicht auf der Website des Museums, sondern in Wikipedia.

571
01:02:58,560 --> 01:03:02,560
Gibt es schon kleine Modelle, wo das probiert wird?

572
01:03:02,560 --> 01:03:04,560
Vielleicht weiter in der Richtung denken.

573
01:03:13,560 --> 01:03:21,560
So, da haben wir gedacht schon, bei Wikis Journalartikeln zum Beispiel, da werden Artikeln nummern, im Wikis Journal veröffentlicht und hier reviewed.

574
01:03:21,560 --> 01:03:23,560
Da haben wir gedacht schon.

575
01:03:24,560 --> 01:03:27,560
So, das kann man machen, wenn man will, zu der Frage.

576
01:03:31,560 --> 01:03:39,560
Genau, Wikis Journal, dieser wissenschaftliche Journal, da werden Artikeln nummern und dann schon Artikel veröffentlicht und die werden auch peer reviewed.

577
01:03:39,560 --> 01:03:41,560
Also, wir halten das sinnvoll.

578
01:03:41,560 --> 01:03:43,560
Wir machen das ja schon.

579
01:03:43,560 --> 01:03:44,560
Soll da die Frage sein?

580
01:03:44,560 --> 01:03:46,560
Wir können uns da weiterhören oder nicht?

581
01:03:47,560 --> 01:03:52,560
Ja, aber das ist ja genau der Punkt, dass du mit so einem peer review dann einen Artikel einfrieren würdest.

582
01:03:52,560 --> 01:03:57,560
Und wenn wir einfach nur die Wikipedia einfrieren und begraben wollen, dann können wir es auch.

583
01:03:57,560 --> 01:03:59,560
Also, das ist ja genau das, was wir nicht wollen.

584
01:03:59,560 --> 01:04:06,560
Ich habe gesagt, dass wir ein Zeitstempel drauf haben, die halt bei Lesenswerte von dieser Artikel, wo in dieser Form peer reviewed wird.

585
01:04:06,560 --> 01:04:12,560
Da wird das so gemacht, da nimmt man einen Artikel und du z.B. im Journal, da wird im Journal veröffentlicht und dann wieder in Wikipedia.

586
01:04:12,560 --> 01:04:13,560
Du darfst aber wieder weiter editieren.

587
01:04:13,560 --> 01:04:14,560
Das ist kein Problem.

588
01:04:15,560 --> 01:04:17,560
Es wird einfach ein Zeitstempel gemacht.

589
01:04:17,560 --> 01:04:20,560
Genau, da ist ein peer reviewed worden, aber du kannst ja wieder weitermachen.

590
01:04:24,560 --> 01:04:26,560
Und bezüglich deiner Frage mit den Peers.

591
01:04:26,560 --> 01:04:32,560
Die Peers sind Leute in dem Bereich, die auch aktiv sind, die sich ein bisschen auskennen.

592
01:04:32,560 --> 01:04:37,560
Und zu deinem Aspekt mit den Fachleuten, die Fachperson bist du selbst.

593
01:04:37,560 --> 01:04:39,560
Weil du selbst sicher schon Artikel gelesen hast.

594
01:04:39,560 --> 01:04:48,560
Und am Ende, weil man exzellenten Artikel ist, wenn man alles zusammengefasst hat, ist da führend Experte, man selbst, weil man weiß ja alles über das Gebiet.

595
01:04:48,560 --> 01:04:50,560
Und es gibt keinen anderen mehr.

596
01:05:06,560 --> 01:05:08,560
Also gut, gehen wir einfach weiter.

597
01:05:09,560 --> 01:05:16,560
Was haltet ihr davon, wenn die WMF selbst an einer KI durch z.B. Public Private Partnership arbeitet?

598
01:05:16,560 --> 01:05:24,560
Also gut ist es vielleicht jetzt sehr weit in Zukunft Musik, aber ich meine, es soll ja jetzt erstmal eine Diskussion sein.

599
01:05:24,560 --> 01:05:30,560
Es geht, projiziert ist jetzt 2045, nicht 2025, das wollte ich auch mal gesagt haben.

600
01:05:39,560 --> 01:05:41,560
Da meldet sich jemand.

601
01:05:41,560 --> 01:05:43,560
Ah sorry.

602
01:05:47,560 --> 01:05:53,560
Ich bin jetzt nicht sicher, ob das noch zur Wikipedia gehört oder eher zur Wikidata.

603
01:05:53,560 --> 01:05:57,560
Aber soviel ich weiß, gibt es jetzt schon Apps.

604
01:05:57,560 --> 01:06:04,560
Da kann ich, wenn ich wandere, das hochhalten und mit der Kamera filmen.

605
01:06:04,560 --> 01:06:10,560
Und es wird eingeblendet, wie der BR oder was ich da vor mir habe, wie das heisst.

606
01:06:10,560 --> 01:06:13,560
Ich denke, das hat mit KI zu tun.

607
01:06:13,560 --> 01:06:15,560
Bin ich ganz sicher.

608
01:06:15,560 --> 01:06:23,560
Also wo ich raus will, das wäre eine Möglichkeit, übrigens in der Schweiz gratis, öffentlich Open Data.

609
01:06:23,560 --> 01:06:31,560
Das wäre ein Weg, jetzt Wikidata ein bisschen interessanter oder zugänglicher zu machen für Fotografen.

610
01:06:31,560 --> 01:06:35,560
Dann wissen Sie sofort, wie der Berg heisst oder der Fluss.

611
01:06:35,560 --> 01:06:40,560
Das ist so eine Idee, die ich habe.

612
01:06:40,560 --> 01:06:45,560
Die offenbar in zwei, drei Jahren vielleicht möglich.

613
01:06:55,560 --> 01:06:57,560
Ich habe es mal ganz kurz versprochen.

614
01:06:57,560 --> 01:07:07,560
Ich halte den Ansatz, darüber nachzudenken, ob man unterstützen kann, eine Open Source KI oder eine gemeinnützige KI zu machen, für ganz hervorragend.

615
01:07:07,560 --> 01:07:09,560
Die Frage, ob es geht.

616
01:07:09,560 --> 01:07:13,560
Aber wir wissen ja, dass es im wissenschaftlichen Bereich die Leute auch das Problem haben.

617
01:07:13,560 --> 01:07:18,560
Die würden ja ganz gerne mit solchen großen Language Models arbeiten oder mit anderen Sachen.

618
01:07:18,560 --> 01:07:23,560
Die kriegen sie teilweise nicht, weil sie eben schon wieder privatisiert sind oder von großen Läden gemacht worden sind.

619
01:07:23,560 --> 01:07:28,560
Ob das funktioniert, weil die stecken dann natürlich Milliarden rein in solche Projekte, die privaten.

620
01:07:28,560 --> 01:07:30,560
Das ist eben die Frage.

621
01:07:30,560 --> 01:07:34,560
Da geht es wahrscheinlich darauf raus und sagt, kann man das vielleicht mit private gemeinsam machen.

622
01:07:34,560 --> 01:07:36,560
Aber ich würde es auf jeden Fall sondieren.

623
01:07:36,560 --> 01:07:41,560
Vielleicht kann auch Danny oder Lydia sagen, ob es da schon irgendwelche Sondierungen gibt in der Richtung.

624
01:07:41,560 --> 01:07:44,560
Ich fände es grundsätzlich gut.

625
01:07:44,560 --> 01:07:47,560
Da gibt es ja auch schon Namen dafür, oder?

626
01:07:47,560 --> 01:07:49,560
Das wäre dann die VKI.

627
01:07:49,560 --> 01:07:51,560
Ich habe die VKI Intelligence.

628
01:07:52,560 --> 01:07:56,560
Also wir müssen uns gar nicht so groß umdenken, wie das Ding heißen soll.

629
01:07:56,560 --> 01:08:00,560
Also gibt es dazu schon irgendwelche Sondierungen oder Ideen?

630
01:08:00,560 --> 01:08:08,560
Weil es sind ja mehrere Leute gerade dran, an solchen Open Source oder gemeinnützigen Modellen.

631
01:08:10,560 --> 01:08:13,560
Ja, also von der Wikimedia Deutschland Seite aus.

632
01:08:13,560 --> 01:08:19,560
Wir haben zum Beispiel uns als Teil von einem Forschungskonsortium beworben.

633
01:08:19,560 --> 01:08:23,560
Leider hat das Konsortium den Award nicht bekommen.

634
01:08:23,560 --> 01:08:38,560
Um so ein europäisches Chet-GPT zu bauen, was dann unter anderem mehr in Richtung offen zugänglich und so weiter gegangen wäre.

635
01:08:38,560 --> 01:08:44,560
Also da gibt es durchaus schon Bestrebungen und Sondierungen.

636
01:08:44,560 --> 01:08:46,560
Wie kann sowas aussehen?

637
01:08:46,560 --> 01:08:56,560
Das andere, was glaube ich viel mehr passieren wird, ist jetzt, dass der Aufwand, um so ein Modell zu trainieren,

638
01:08:56,560 --> 01:09:01,560
dass da sehr viele Leute sehr viel Zeit reinstecken, das zu reduzieren.

639
01:09:01,560 --> 01:09:07,560
Weil selbst für die großen Firmen ist das eine ganze Menge Geld.

640
01:09:07,560 --> 01:09:15,560
Und hoffentlich kann da mehr als nur so eine große Firma von profitieren.

641
01:09:15,560 --> 01:09:17,560
In der Zukunft.

642
01:09:25,560 --> 01:09:27,560
Dann nächster Punkt.

643
01:09:27,560 --> 01:09:29,560
Er könnte noch mit jedem Punkt.

644
01:09:29,560 --> 01:09:35,560
Es läuft ein bisschen schwieriger mit einer ...

645
01:09:35,560 --> 01:09:37,560
Eine Sekunde.

646
01:09:37,560 --> 01:09:39,560
Ja klar, eine Sekunde.

647
01:09:39,560 --> 01:09:47,560
Was würden ihr dann zum Beispiel versuchen, wenn man sich auch eine private Partnership überlegt?

648
01:09:47,560 --> 01:09:51,560
Also zum Beispiel eventuell mit Google, muss man nicht sagen.

649
01:09:51,560 --> 01:09:55,560
Könnte aber auch noch mal zum Public-Private-Partnership zurückkommen.

650
01:09:57,560 --> 01:10:01,560
Das ist sehr gut, dass du die Frage 7 auch noch eingebracht hast.

651
01:10:01,560 --> 01:10:03,560
Weil das passt wieder in die vorige Frage rein.

652
01:10:03,560 --> 01:10:08,560
Also ich meine, mit Vigidata könnte man auch sagen, das ist gerade so ein bisschen die Wiederentdeckung der Symbolik AI,

653
01:10:08,560 --> 01:10:15,560
mit der 1970 so direkt die generelle künstliche Illigenz vor der Türe war, bis sie 1990 gegen die Wand gefahren ist, so mehr oder weniger.

654
01:10:15,560 --> 01:10:21,560
Und jetzt nehmt ihr aber als gegeben an, dass Public-Private-Partnerships und Private-Private-Partnerships

655
01:10:21,560 --> 01:10:27,560
so auch in Zukunft das Mittel der Wahrheit sein werden, trotz oder wegen der Ankunft der generellen künstlichen Illigenz.

656
01:10:27,560 --> 01:10:34,560
Also wäre eine tolle Frage nicht andersherum zu sagen, sollte die WMF zum Beispiel da irgendwie hingehen,

657
01:10:34,560 --> 01:10:42,560
dass eben nicht private Entitäten solche Modelle nehmen, privatisieren und damit allein ihre Marktmacht dominieren lassen könnten?

658
01:10:44,560 --> 01:10:47,560
Ich meine, Wikimedia ist ja auch privat.

659
01:10:47,560 --> 01:10:49,560
Das ist auch eine Annahme.

660
01:10:49,560 --> 01:10:53,560
Genau, aber in dem Fall mache ich Private WMF.

661
01:10:53,560 --> 01:10:58,560
Genau, vielleicht Danny oder Lydia, ihr seid ja von den Wikimedia.

662
01:10:59,560 --> 01:11:01,560
Ich würde auch fragen.

663
01:11:01,560 --> 01:11:12,560
Also prinzipiell, es ist, wenn du eine, gegeben, dass die WMF bestimmte Regeln hat, wie zum Beispiel, Ergebnisse müssen immer frei verfügbar sein, nicht wahr?

664
01:11:12,560 --> 01:11:17,560
Würde eine Patenschaft, wie zum Beispiel mit Google, um ein Foundation-Modell zu trainieren, bedeuten,

665
01:11:18,560 --> 01:11:29,560
dass Google uns wahrscheinlich dann 100 bis 200 Millionen Dollar da reinsteckt, um ein Foundation-Modell zu trainieren, um es dann der Allgemeinen zur Verfügung zu stellen.

666
01:11:29,560 --> 01:11:31,560
Ich finde die Idee großartig.

667
01:11:31,560 --> 01:11:33,560
Ich fände es toll.

668
01:11:33,560 --> 01:11:39,560
Warum sollten wir nicht 200 Millionen von Google nehmen und so verwenden, um ein öffentliches Ergebnis zu haben?

669
01:11:39,560 --> 01:11:42,560
Ich halte es nicht für sonderlich wahrscheinlich, dass das passieren kann.

670
01:11:43,560 --> 01:11:55,560
Also mit den Voraussetzungen, die Wikimedia Foundation hat an potenzielle private Partner, habe ich Schwierigkeiten zu sehen, wie wir so etwas zusammen machen können, um ehrlich zu sein.

671
01:11:55,560 --> 01:12:00,560
Und wer da bereit wäre, so viel Geld da reinzustecken, um es dann quasi in die Öffentlichkeit zu geben.

672
01:12:01,560 --> 01:12:04,560
Das geht natürlich mit Kompromissen nur möglich, schätze ich mal.

673
01:12:04,560 --> 01:12:06,560
Ich sehe das ähnlich wie Delhi West,

674
01:12:06,560 --> 01:12:12,560
sollte jetzt zum Beispiel Google mit uns und mit der Wikimedia Foundation zusammenarbeiten, wollen uns Geld geben.

675
01:12:12,560 --> 01:12:19,560
Sie haben ja schon Ihr KI-Technik-Kultur und das wird ja auch schon trainiert.

676
01:12:19,560 --> 01:12:22,560
Und das ist ja auch schon ein sehr, sehr wichtiges Thema.

677
01:12:22,560 --> 01:12:24,560
Und ich finde, es ist ein sehr wichtiges Thema.

678
01:12:24,560 --> 01:12:26,560
Und ich finde, es ist ein sehr wichtiges Thema.

679
01:12:26,560 --> 01:12:28,560
Und ich finde, es ist ein sehr wichtiges Thema.

680
01:12:28,560 --> 01:12:30,560
Und ich finde, es ist ein sehr wichtiges Thema.

681
01:12:30,560 --> 01:12:34,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

682
01:12:34,560 --> 01:12:36,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

683
01:12:36,560 --> 01:12:38,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

684
01:12:38,560 --> 01:12:40,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

685
01:12:40,560 --> 01:12:42,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

686
01:12:42,560 --> 01:12:44,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

687
01:12:44,560 --> 01:12:46,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

688
01:12:46,560 --> 01:12:48,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

689
01:12:48,560 --> 01:12:50,560
Die Wikimedia Foundation hat eine sehr wichtige Grundlage für alle Sprachmodelle, die wir kennen.

690
01:12:50,560 --> 01:12:52,560
Ich habe in der Literatur Zitate gelesen, da haben Leute behauptet, es ist nicht möglich,

691
01:12:52,560 --> 01:12:54,560
Ich habe in der Literatur Zitate gelesen, da haben Leute behauptet, es ist nicht möglich,

692
01:12:54,560 --> 01:12:56,560
ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich,

693
01:12:56,560 --> 01:12:58,560
ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich,

694
01:12:58,560 --> 01:13:00,560
ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich,

695
01:13:00,560 --> 01:13:02,560
ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich,

696
01:13:02,560 --> 01:13:04,560
ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich,

697
01:13:04,560 --> 01:13:06,560
ich habe Zitate gelesen, da haben Leute behauptet, es ist nicht möglich, so ein Clear-Tool wie GPC zu programmieren ohne Wikimedia.

698
01:13:06,560 --> 01:13:08,560
so ein Clear-Tool wie GPC zu programmieren ohne Wikimedia.

699
01:13:08,560 --> 01:13:10,560
15% Datenbestand ist wahrscheinlich für die Wikimedia das wichtigste Tool,

700
01:13:10,560 --> 01:13:12,560
15% Datenbestand ist wahrscheinlich für die Wikimedia das wichtigste Tool,

701
01:13:12,560 --> 01:13:14,560
um die ganzen Box- oder TM-Modelle zu trainieren.

702
01:13:14,560 --> 01:13:16,560
um die ganzen Box- oder TM-Modelle zu trainieren.

703
01:13:16,560 --> 01:13:18,560
um die ganzen Box- oder TM-Modelle zu trainieren.

704
01:13:18,560 --> 01:13:20,560
Die Frage hier ist sehr skeptisch, weil die nutzen unsere Daten schon,

705
01:13:20,560 --> 01:13:22,560
Die Frage hier ist sehr skeptisch, weil die nutzen unsere Daten schon,

706
01:13:22,560 --> 01:13:24,560
die Frage hier ist sehr skeptisch, weil die nutzen unsere Daten schon,

707
01:13:24,560 --> 01:13:26,560
deshalb sollten sie uns noch Papiergeld geben, für etwas, das sie sowieso gratis kostenlos kriegen.

708
01:13:26,560 --> 01:13:28,560
deshalb sollten sie uns noch Papiergeld geben, für etwas, das sie sowieso gratis kostenlos kriegen.

709
01:13:28,560 --> 01:13:30,560
Ich möchte mal eine Analogie bringen.

710
01:13:30,560 --> 01:13:32,560
Ich möchte mal eine Analogie bringen.

711
01:13:32,560 --> 01:13:34,560
Ich möchte mal eine Analogie bringen.

712
01:13:34,560 --> 01:13:36,560
Ich möchte mal eine Analogie bringen.

713
01:13:36,560 --> 01:13:38,560
Ich möchte mal eine Analogie bringen.

714
01:13:38,560 --> 01:13:40,560
Ich möchte mal eine Analogie bringen.

715
01:13:40,560 --> 01:13:42,560
Ich möchte mal eine Analogie bringen.

716
01:13:42,560 --> 01:13:44,560
Ich möchte mal eine Analogie bringen.

717
01:13:44,560 --> 01:13:46,560
Ich möchte mal eine Analogie bringen.

718
01:13:46,560 --> 01:13:48,560
Ich möchte mal eine Analogie bringen.

719
01:13:48,560 --> 01:13:50,560
Ich möchte mal eine Analogie bringen.

720
01:13:50,560 --> 01:13:52,560
Ich möchte mal eine Analogie bringen.

721
01:13:52,560 --> 01:13:54,560
Ich möchte mal eine Analogie bringen.

722
01:13:54,560 --> 01:13:56,560
Ich möchte mal eine Analogie bringen.

723
01:13:56,560 --> 01:13:58,560
Ich möchte mal eine Analogie bringen.

724
01:13:58,560 --> 01:14:00,560
Ich möchte mal eine Analogie bringen.

725
01:14:00,560 --> 01:14:02,560
Ich möchte mal eine Analogie bringen.

726
01:14:02,560 --> 01:14:04,560
Ich möchte mal eine Analogie bringen.

727
01:14:04,560 --> 01:14:06,560
Ich möchte mal eine Analogie bringen.

728
01:14:06,560 --> 01:14:08,560
Ich möchte mal eine Analogie bringen.

729
01:14:08,560 --> 01:14:10,560
Ich möchte mal eine Analogie bringen.

730
01:14:10,560 --> 01:14:12,560
Ich möchte mal eine Analogie bringen.

731
01:14:12,560 --> 01:14:14,560
Ich möchte mal eine Analogie bringen.

732
01:14:14,560 --> 01:14:16,560
Ich möchte mal eine Analogie bringen.

733
01:14:16,560 --> 01:14:18,560
Ich möchte mal eine Analogie bringen.

734
01:14:18,560 --> 01:14:20,560
Ich möchte mal eine Analogie bringen.

735
01:14:20,560 --> 01:14:22,560
Ich möchte mal eine Analogie bringen.

736
01:14:22,560 --> 01:14:24,560
Ich möchte mal eine Analogie bringen.

737
01:14:24,560 --> 01:14:26,560
Ich glaube jetzt nochmal einen weiteren Punkt.

738
01:14:26,560 --> 01:14:28,560
Was haltet ihr von einer teilweise

739
01:14:28,560 --> 01:14:30,560
öffentlich-rechtlichen Wikimedia

740
01:14:30,560 --> 01:14:32,560
zur Entwicklung einer Wikintelligence

741
01:14:32,560 --> 01:14:34,560
bzw. zur Verbesserung der Qualität

742
01:14:34,560 --> 01:14:36,560
in der Wikipedia?

743
01:14:36,560 --> 01:14:38,560
Gerne auch nochmal zurückgreifen

744
01:14:38,560 --> 01:14:40,560
mit den beiden vorherigen Fragen.

745
01:14:40,560 --> 01:14:42,560
Wie kann ich das mal definieren bitte?

746
01:14:42,560 --> 01:14:44,560
Wikintelligence war einfach eine Wikipedia.

747
01:14:44,560 --> 01:14:46,560
Also öffentlich-rechtlich ist einfach so ein

748
01:14:46,560 --> 01:14:48,560
ähnliches Modell wie

749
01:14:48,560 --> 01:14:50,560
die Rundfunkanstalten.

750
01:14:50,560 --> 01:14:52,560
Nur halt in dem Fall,

751
01:14:52,560 --> 01:14:54,560
wenn man Wikimedia Europe nimmt,

752
01:14:54,560 --> 01:14:56,560
wie will mein Beispiel halt eine Art

753
01:14:56,560 --> 01:15:00,560
öffentlich-rechtliche europäische Wikimedia.

754
01:15:00,560 --> 01:15:02,560
Ich verstehe die Frage nicht ganz,

755
01:15:02,560 --> 01:15:04,560
aber ich glaube, es geht nicht viel.

756
01:15:04,560 --> 01:15:06,560
Wir werden einfach versuchen, genau dasselbe

757
01:15:06,560 --> 01:15:08,560
zu machen wie ChatGPT.

758
01:15:08,560 --> 01:15:10,560
Wir werden halt öffentlich. Warum?

759
01:15:10,560 --> 01:15:12,560
Das ist in der Vorteil.

760
01:15:12,560 --> 01:15:14,560
Ich würde mir lieber gucken, was solche

761
01:15:14,560 --> 01:15:16,560
Modelle, wie es jetzt gibt, wie ChatGPT,

762
01:15:16,560 --> 01:15:18,560
was die nicht können.

763
01:15:18,560 --> 01:15:20,560
Die sind trainiert anhand von

764
01:15:20,560 --> 01:15:22,560
Wikipedia-Inhalten.

765
01:15:22,560 --> 01:15:24,560
Aber frag mal ChatGPT,

766
01:15:24,560 --> 01:15:26,560
woher hast du die Information?

767
01:15:26,560 --> 01:15:28,560
Wir hatten das behauptet, wann und warum?

768
01:15:28,560 --> 01:15:30,560
Dann kommt das die am meisten Stelle

769
01:15:30,560 --> 01:15:32,560
des Schwimmens der CD, der komplette Schlagzeige.

770
01:15:32,560 --> 01:15:34,560
Das ist die Stelle, wo Wikipedia

771
01:15:34,560 --> 01:15:36,560
unersetzbar sein wird auch in der Zukunft.

772
01:15:36,560 --> 01:15:38,560
Glaube ich.

773
01:15:38,560 --> 01:15:40,560
Und das wird die Zukunft zeigen.

774
01:15:40,560 --> 01:15:42,560
Versucht euch auch das zu konzentrieren,

775
01:15:42,560 --> 01:15:44,560
wo ChatGPT schlecht ist.

776
01:15:44,560 --> 01:15:46,560
Und das zu

777
01:15:46,560 --> 01:15:48,560
verstärken.

778
01:15:48,560 --> 01:15:50,560
Noch schlecht ist.

779
01:15:52,560 --> 01:15:54,560
Also ich glaube,

780
01:15:54,560 --> 01:15:56,560
die Frage, die sich hier stellt,

781
01:15:56,560 --> 01:15:58,560
das hat das U-Block schon richtig angesprochen.

782
01:15:58,560 --> 01:16:00,560
Es geht um das Thema Monetarisierung.

783
01:16:00,560 --> 01:16:02,560
Es geht um das Thema

784
01:16:02,560 --> 01:16:04,560
ja, letzten Endes,

785
01:16:04,560 --> 01:16:06,560
wo befindet sich die Wertschaffung in einer KI-Welt statt?

786
01:16:08,560 --> 01:16:10,560
Zur Zeit ist es ja so, dass die großen

787
01:16:10,560 --> 01:16:12,560
Plattformanbieter, die den großen

788
01:16:12,560 --> 01:16:14,560
KI-Modelle anbietern werden.

789
01:16:14,560 --> 01:16:16,560
Aber die Modelle

790
01:16:16,560 --> 01:16:18,560
werden ja gebaut aus Dingen,

791
01:16:18,560 --> 01:16:20,560
denen Anbieter nicht gehören.

792
01:16:20,560 --> 01:16:22,560
Im erheblichen Teil.

793
01:16:22,560 --> 01:16:24,560
Und jetzt ist es so und

794
01:16:24,560 --> 01:16:26,560
die kätzerliche Frage war,

795
01:16:26,560 --> 01:16:28,560
war es vielleicht eine Scheißidee, ob wir es

796
01:16:28,560 --> 01:16:30,560
wollen machen?

797
01:16:30,560 --> 01:16:32,560
Die bewusst kätzerliche Frage.

798
01:16:32,560 --> 01:16:34,560
Weil wir liefern natürlich mit unseren

799
01:16:34,560 --> 01:16:36,560
Lizenzen, denen das perfekte

800
01:16:36,560 --> 01:16:38,560
Trending Material für die

801
01:16:38,560 --> 01:16:40,560
Modelle bei hauptsächlich.

802
01:16:40,560 --> 01:16:42,560
Bei anderen ist es halt technische Weiterentwicklung.

803
01:16:42,560 --> 01:16:44,560
In einer hart kapitalistisch

804
01:16:44,560 --> 01:16:46,560
organisierten Welt haben wir

805
01:16:46,560 --> 01:16:48,560
eigentlich zu Stand heute

806
01:16:48,560 --> 01:16:50,560
kein großes Druckmittel,

807
01:16:50,560 --> 01:16:52,560
mit uns zusammen die Modelle zu erwerben.

808
01:16:52,560 --> 01:16:54,560
Jetzt kann man natürlich sagen,

809
01:16:54,560 --> 01:16:56,560
im Offiziersbereich ist es ja auch so,

810
01:16:56,560 --> 01:16:58,560
dass die Profiteure von Offizierssoftware

811
01:16:58,560 --> 01:17:00,560
selber in das System investieren

812
01:17:00,560 --> 01:17:02,560
und quasi das

813
01:17:02,560 --> 01:17:04,560
System, in dem sie sich entwickeln

814
01:17:04,560 --> 01:17:06,560
können, am Laufenden zu halten.

815
01:17:06,560 --> 01:17:08,560
Das ist aber was relativ

816
01:17:08,560 --> 01:17:10,560
Konkretes bei Offizierssoftware, weil

817
01:17:10,560 --> 01:17:12,560
früher die Entwickler, die das programmieren,

818
01:17:12,560 --> 01:17:14,560
das sie dann selber nutzen, wirklich dann auch

819
01:17:14,560 --> 01:17:16,560
sieben. Im Falle von

820
01:17:16,560 --> 01:17:18,560
Sprachmodellen, und das wurde jetzt auch

821
01:17:18,560 --> 01:17:20,560
verschiedenlich angesprochen,

822
01:17:20,560 --> 01:17:22,560
haben wir, glaube ich, schon

823
01:17:22,560 --> 01:17:24,560
ein berechtigtes Interesse

824
01:17:24,560 --> 01:17:26,560
der Betreiber dieser großen Sprachmodelle,

825
01:17:26,560 --> 01:17:28,560
dass der Goldschatz

826
01:17:28,560 --> 01:17:30,560
halbwegs demantlich

827
01:17:30,560 --> 01:17:32,560
proverkt ist müssen in der Wikipédia

828
01:17:32,560 --> 01:17:34,560
und in Wikidata,

829
01:17:34,560 --> 01:17:36,560
dass die den gerne auch in Zukunft

830
01:17:36,560 --> 01:17:38,560
weiter nutzen können.

831
01:17:38,560 --> 01:17:40,560
Und es wäre mal ganz spannend, aber das macht

832
01:17:40,560 --> 01:17:42,560
keiner, weil es Geldverschwendung wäre,

833
01:17:42,560 --> 01:17:44,560
wie chat.gbt antworten würde,

834
01:17:44,560 --> 01:17:46,560
wenn man mal komplett alle

835
01:17:46,560 --> 01:17:48,560
Wikipedialaten rauszieht.

836
01:17:48,560 --> 01:17:50,560
Also wenn man quasi das, was

837
01:17:50,560 --> 01:17:52,560
Context schafft, unter diesen ganzen anderen

838
01:17:52,560 --> 01:17:54,560
einzelnen Verpflichtungen, die da auch reingelaufen sind,

839
01:17:54,560 --> 01:17:56,560
wenn man das mal raushält.

840
01:17:56,560 --> 01:17:58,560
Also eine Welt, wo

841
01:17:58,560 --> 01:18:00,560
die Wikipedia uns vorstellt und uns

842
01:18:00,560 --> 01:18:02,560
fragen, ob die Sprachmodelle in dieser

843
01:18:02,560 --> 01:18:04,560
Nicht-Wikipedia-Welt überhaupt

844
01:18:04,560 --> 01:18:06,560
in der Lage wären, die Qualität, die sie

845
01:18:06,560 --> 01:18:08,560
heute für die Leute darstellen,

846
01:18:08,560 --> 01:18:10,560
zu erreichen. Ich hätte da Agezweifel dran.

847
01:18:10,560 --> 01:18:12,560
Deshalb sollte es eigentlich

848
01:18:12,560 --> 01:18:14,560
rein aus volkswirtschaftlich

849
01:18:14,560 --> 01:18:16,560
öffentlicher Sicht

850
01:18:16,560 --> 01:18:18,560
ein Interesse daran geben, dass es das,

851
01:18:18,560 --> 01:18:20,560
was wir hier machen, möglichst lange,

852
01:18:20,560 --> 01:18:22,560
möglichst dauerhaft und in möglichst großer

853
01:18:22,560 --> 01:18:24,560
Qualität gibt.

854
01:18:24,560 --> 01:18:26,560
Die Frage ist,

855
01:18:26,560 --> 01:18:28,560
damit sind wir wieder bei der Questionfrage,

856
01:18:28,560 --> 01:18:30,560
Autorin Schwund, wie

857
01:18:30,560 --> 01:18:32,560
schafft man das, wenn man

858
01:18:32,560 --> 01:18:34,560
eine derart massive

859
01:18:34,560 --> 01:18:36,560
Entfremdungsrichtung schaffen

860
01:18:36,560 --> 01:18:38,560
und den Verhandlungen von Wissen und dem Nutzen von Wissen?

861
01:18:40,560 --> 01:18:42,560
Das wird durch die KI immer stärker werden.

862
01:18:42,560 --> 01:18:44,560
Ich habe da keine Antwort drauf.

863
01:18:44,560 --> 01:18:46,560
Ich glaube auch nicht, dass es eine einfache Antwort gibt.

864
01:18:46,560 --> 01:18:48,560
Wir können es natürlich

865
01:18:48,560 --> 01:18:50,560
alle wünschen, dass wir irgendwie

866
01:18:50,560 --> 01:18:52,560
so

867
01:18:52,560 --> 01:18:54,560
ja,

868
01:18:54,560 --> 01:18:56,560
wenn das kapitalistische System

869
01:18:56,560 --> 01:18:58,560
überwinden und alle gemeinwohl orientiert arbeiten

870
01:18:58,560 --> 01:19:00,560
und so etwas, aber ich glaube nicht, dass wir das in den nächsten 30 Jahren hinbekommen.

871
01:19:02,560 --> 01:19:04,560
Und wenn dann irgendwann die KI-Texten

872
01:19:04,560 --> 01:19:06,560
abschreiben müssen,

873
01:19:06,560 --> 01:19:08,560
weil es keine anderen Texte mehr gibt,

874
01:19:08,560 --> 01:19:10,560
dann haben wir tatsächlich gesellschaftlichen,

875
01:19:10,560 --> 01:19:12,560
das hatte Dany ja schon angesprochen,

876
01:19:12,560 --> 01:19:14,560
ein riesiges Problem.

877
01:19:14,560 --> 01:19:16,560
Also wirklich ein riesiges Problem,

878
01:19:16,560 --> 01:19:18,560
weil dann das Faktenfundament nicht mehr da ist.

879
01:19:18,560 --> 01:19:20,560
Ich veröffentliche noch

880
01:19:20,560 --> 01:19:22,560
die letzten beiden Fragen, die wir haben

881
01:19:22,560 --> 01:19:24,560
und dann ist Schluss.

882
01:19:24,560 --> 01:19:26,560
Habt ihr noch Antworten zu

883
01:19:26,560 --> 01:19:28,560
Wie seht ihr die Zukunft der Wikipedia?

884
01:19:28,560 --> 01:19:30,560
Hat es noch weitere Anmerkungen, Ideen etc.

885
01:19:30,560 --> 01:19:32,560
zum Thema Wikipedia-Zeiten,

886
01:19:32,560 --> 01:19:34,560
oder ist es eine künstliche Intelligenz?

887
01:19:36,560 --> 01:19:38,560
Vielleicht kurz zentieren?

888
01:19:38,560 --> 01:19:40,560
Also die

889
01:19:40,560 --> 01:19:42,560
lizenzrechtliche Frage würde ich gerne klären.

890
01:19:42,560 --> 01:19:44,560
Also soweit ich weiß,

891
01:19:44,560 --> 01:19:46,560
stehen die Inhalte

892
01:19:46,560 --> 01:19:48,560
der Wikipedia unter einer

893
01:19:48,560 --> 01:19:50,560
preizenzigen Namenssendung zum Beispiel drin.

894
01:19:50,560 --> 01:19:52,560
Wo du nicht einfach so einfach mal weitergehen kannst

895
01:19:52,560 --> 01:19:54,560
und du musst bitte sehr lizenzweit ergeben.

896
01:19:54,560 --> 01:19:56,560
In den Abschluss, wenn ihr das mal so...

897
01:19:56,560 --> 01:19:58,560
So, das höre ich doch mal ganz gerne.

898
01:19:58,560 --> 01:20:00,560
Einfach mal irgendwo am besten von amerikanischem

899
01:20:00,560 --> 01:20:02,560
die sich die Gründe gebrochen haben.

900
01:20:02,560 --> 01:20:04,560
Und dann ist die Wiener Foundation

901
01:20:04,560 --> 01:20:06,560
finanziert, bis in den Jahr

902
01:20:06,560 --> 01:20:08,560
21.045.

903
01:20:08,560 --> 01:20:10,560
Macht das!

904
01:20:10,560 --> 01:20:12,560
Ich fürchte,

905
01:20:12,560 --> 01:20:14,560
dass wir hier funktionieren.

906
01:20:14,560 --> 01:20:16,560
Ich habe jetzt die Reihenkaste

907
01:20:16,560 --> 01:20:18,560
von Wikipedia in einem Namen.

908
01:20:18,560 --> 01:20:20,560
Dass man rausziehen kann

909
01:20:20,560 --> 01:20:22,560
und auslernen kann, ist weg.

910
01:20:22,560 --> 01:20:24,560
Man wird es nicht nachweisen können,

911
01:20:24,560 --> 01:20:26,560
was von Wikipedia kommt

912
01:20:26,560 --> 01:20:28,560
und was nicht. Das selbe Problem haben auch

913
01:20:28,560 --> 01:20:32,560
die Künstler, die an Zeichenstile verwendet werden.

914
01:20:32,560 --> 01:20:34,560
Als Grundlage für künstliche Künstler.

915
01:20:34,560 --> 01:20:36,560
Auf dem Artikel

916
01:20:36,560 --> 01:20:38,560
des Künstlerpreises

917
01:20:38,560 --> 01:20:40,560
werden sehr gesteckte Zeichnungen.

918
01:20:40,560 --> 01:20:42,560
Ich würde auch davor warnen,

919
01:20:42,560 --> 01:20:44,560
hier ist Jack in the Team

920
01:20:44,560 --> 01:20:46,560
als Ladymage zu sehen.

921
01:20:46,560 --> 01:20:48,560
Das Ganze ist auch bitte schön optimiert

922
01:20:48,560 --> 01:20:50,560
auf die Dialogfähigkeit.

923
01:20:50,560 --> 01:20:52,560
Und man hat sehr bewusst darauf geachtet

924
01:20:52,560 --> 01:20:54,560
und peinlich darauf geachtet,

925
01:20:54,560 --> 01:20:56,560
den früher zu vermeiden,

926
01:20:56,560 --> 01:20:58,560
dass der Microsoft

927
01:20:58,560 --> 01:21:00,560
mit seinem berühmten Jack fortgemacht hat,

928
01:21:00,560 --> 01:21:02,560
der in kürzester Zeit von wenigen Stunden

929
01:21:02,560 --> 01:21:04,560
so nazi geworden ist,

930
01:21:04,560 --> 01:21:06,560
weil er entsprechend gefüttert wurde.

931
01:21:06,560 --> 01:21:08,560
Deswegen schickt sich die eben

932
01:21:08,560 --> 01:21:10,560
diese berühmten Antworten

933
01:21:10,560 --> 01:21:12,560
und entschuldigt sich auch hunderttausendmal.

934
01:21:12,560 --> 01:21:14,560
Und wenn man sagt, mir geht das jetzt auf den Nerv,

935
01:21:14,560 --> 01:21:16,560
dass du dich ständig entschuldigst,

936
01:21:16,560 --> 01:21:18,560
dann entschuldige ich das nicht mehr.

937
01:21:18,560 --> 01:21:20,560
Diese Mechanismen spielen

938
01:21:20,560 --> 01:21:22,560
ich bin jetzt

939
01:21:22,560 --> 01:21:24,560
mit K.E. in der Universität

940
01:21:24,560 --> 01:21:26,560
aber diese Mechanismen spielen

941
01:21:26,560 --> 01:21:28,560
sehr, sehr große Rolle

942
01:21:28,560 --> 01:21:30,560
in dem was man sieht.

943
01:21:36,560 --> 01:21:38,560
Okay, also wenn

944
01:21:38,560 --> 01:21:40,560
dann alles gesagt wurde,

945
01:21:40,560 --> 01:21:42,560
hätte ich eigentlich die Idee gehabt,

946
01:21:42,560 --> 01:21:44,560
ein Projekt zu gründen und zwar Wiki45.

947
01:21:44,560 --> 01:21:46,560
Nachdem wir aber jetzt

948
01:21:46,560 --> 01:21:48,560
auch das Zukunftskongress haben werden,

949
01:21:48,560 --> 01:21:50,560
weiß ich nicht,

950
01:21:50,560 --> 01:21:52,560
wie sinnvoll das ist.

951
01:21:52,560 --> 01:21:54,560
Ich schätze, es überdeckt sich relativ groß,

952
01:21:54,560 --> 01:21:56,560
aber wir können ja mal schauen.

953
01:21:56,560 --> 01:21:58,560
Ist hier das draußen heute?

954
01:21:58,560 --> 01:22:00,560
Ja, wir haben bis 25

955
01:22:00,560 --> 01:22:02,560
Zeit.

956
01:22:02,560 --> 01:22:04,560
Wir haben jetzt auch

957
01:22:04,560 --> 01:22:06,560
mehr mitmachen,

958
01:22:06,560 --> 01:22:08,560
den kann ich gern mitmachen.

959
01:22:08,560 --> 01:22:10,560
Ansonsten, denke ich, werden wir noch

960
01:22:10,560 --> 01:22:12,560
viel über weiter diskutieren

961
01:22:12,560 --> 01:22:14,560
und bedanke mich für die Aufmerksamkeit.

962
01:22:22,560 --> 01:22:24,560
Vielen Dank sagen allen und