Dutch subtitles for clip: File:WikiCon 2023 - Wikipedia. Macht. Bilder. Ein Streitgespräch über (Gender) Bias und Bilder in der Wikipedia.webm

From Wikimedia Commons, the free media repository
Jump to navigation Jump to search
1
00:00:00,000 --> 00:00:10,000
[Ondertiteling automatisch met Whisper Medium/herzien] Dus welkom. Ik hoop dat Eva en Ziko nu allebei online zijn.

2
00:00:10,000 --> 00:00:12,000
Oké, hij knikt, dus dat is het.

3
00:00:12,000 --> 00:00:18,000
Ja, Eva was lange tijd mijn collega aan de Universiteit van Mannheim, en Ziko was ook onze gast in Mannheim.

4
00:00:18,000 --> 00:00:22,000
Daarom ben ik des te blijer dat ik hen beiden vandaag kort kan voorstellen

5
00:00:22,000 --> 00:00:27,000
en daarna de discussie kan modereren.

6
00:00:27,000 --> 00:00:31,000
Eva Gredel is junior professor in Duisburg-Essen.

7
00:00:31,000 --> 00:00:35,000
Ze is junior hoogleraar Duitse taalkunde

8
00:00:35,000 --> 00:00:40,000
en haar focus ligt op het digitale discours en onderwijs in de digitale wereld.

9
00:00:40,000 --> 00:00:44,000
Op beide terreinen houdt zij zich ook bezig met Wikipedia,

10
00:00:44,000 --> 00:00:49,000
met Wikipedia-didactiek, het gebruik van Wikipedia in het onderwijs en met

11
00:00:49,000 --> 00:00:53,000
Wikipedia, het wetenschappelijk onderzoek van Wikipedia.

12
00:00:53,000 --> 00:00:57,000
En in het bijzonder houdt ze zich bezig met digitale multimodale discoursen

13
00:00:57,000 --> 00:01:00,000
en ook met de gendervooroordelen op Wikipedia.

14
00:01:00,000 --> 00:01:05,000
In 2017 was ze mede-organisator van de Wiki-DACH in Mannheim

15
00:01:05,000 --> 00:01:10,000
en gaf dit jaar ook een lezing op de Femnetz-bijeenkomst.

16
00:01:10,000 --> 00:01:18,000
Ziko van Dijk is sinds 2003 actief op Wikipedia bij Wikimedia Duitsland en Nederland, en

17
00:01:18,000 --> 00:01:25,000
zat tevens in het bestuur en scheidsgerecht van Nederland en de Duitse Wikipedia.

18
00:01:25,000 --> 00:01:30,000
Hij is mede-oprichter van Klexikon, een online encyclopedie voor kinderen,

19
00:01:30,000 --> 00:01:36,000
is gepromoveerd in de geschiedenis en heeft een bijzondere interesse in afbeeldingen op Wikipedia,

20
00:01:36,000 --> 00:01:39,000
inclusief door AI gegenereerde afbeeldingen.

21
00:01:39,000 --> 00:01:45,000
Hij heeft al twee boeken op Wikipedia gepubliceerd, in 2010 en 2021,

22
00:01:45,000 --> 00:01:48,000
zoals ‘Understanding Wikis and Wikipedia’.

23
00:01:48,000 --> 00:01:52,000
Beide sprekers delen een interesse in afbeeldingen op Wikipedia,

24
00:01:52,000 --> 00:01:57,000
en zij zullen nu hun verschillende opvattingen over het onderwerp aan ons uitleggen.

25
00:01:57,000 --> 00:02:01,000
En aan het eind is er zoals gezegd tijd voor discussie,

26
00:02:01,000 --> 00:02:04,000
zowel hier in de zaal als via de chat.

27
00:02:04,000 --> 00:02:08,000
En dan zal ik de vragen doorgeven.

28
00:02:08,000 --> 00:02:10,000
Welkom, Eva en Ziko.

29
00:02:10,000 --> 00:02:11,000
Hallo.

30
00:02:11,000 --> 00:02:12,000
Hallo.

31
00:02:12,000 --> 00:02:13,000
Ja.

32
00:02:13,000 --> 00:02:21,000
Ja, volgens de structuur die we voor onze discussie hebben gepland,

33
00:02:21,000 --> 00:02:27,000
zo hebben we het format genoemd, zou ik nu eerst

34
00:02:27,000 --> 00:02:32,000
mijn taalkundige, deels semiotische, beeldwetenschappelijke visie presenteren,

35
00:02:32,000 --> 00:02:37,000
met de nadruk op vrouwen op Wikipedia.

36
00:02:37,000 --> 00:02:39,000
Maar het gaat ook verder dan dat.

37
00:02:39,000 --> 00:02:43,000
En dat klopt, Ziko's standpunt zal later worden voortgezet.

38
00:02:43,000 --> 00:02:46,000
Ik kan zelf zeggen dat ik een beetje enthousiast ben

39
00:02:46,000 --> 00:02:49,000
omdat de technische connectie ook wat complexer is.

40
00:02:49,000 --> 00:02:53,000
Ik kijk in ieder geval uit naar de discussie achteraf

41
00:02:53,000 --> 00:02:55,000
en hoop dat we met onze discussie,

42
00:02:55,000 --> 00:03:01,000
die uiteindelijk misschien niet zo controversieel of niet zo controversieel is,

43
00:03:01,000 --> 00:03:07,000
maar wel stof tot nadenken kunnen brengen voor de Wikipedia-gemeenschap.

44
00:03:08,000 --> 00:03:14,000
Ga misschien terug naar de overkoepelende titel waar Ziko en ik over hadden nagedacht:

45
00:03:14,000 --> 00:03:17,000
Wikipedia. Macht. Afbeeldingen.

46
00:03:17,000 --> 00:03:22,000
Dit is een titel die op verschillende manieren gelezen kan worden.

47
00:03:22,000 --> 00:03:28,000
Aan de ene kant zie je natuurlijk dat veel internetgebruikers

48
00:03:28,000 --> 00:03:32,000
Wikipedia raadplegen en het als centrale informatiebron gebruiken.

49
00:03:32,000 --> 00:03:36,000
En je kunt dan de veronderstelling of de veronderstelling uitdrukken

50
00:03:36,000 --> 00:03:44,000
dat Wikipedia, als centrale informatiebron, de kijk van mensen op de wereld beïnvloedt,

51
00:03:44,000 --> 00:03:49,000
om zo te zeggen beelden van de wereld overbrengt.

52
00:03:49,000 --> 00:03:53,000
En aan de andere kant kun je het ook zo lezen dat het de vraag is

53
00:03:53,000 --> 00:04:00,000
wie eigenlijk de macht heeft op Wikipedia om bepaalde afbeeldingen op discussiepagina’s op te leggen,

54
00:04:00,000 --> 00:04:06,000
dat wil zeggen om vervolgens de vraag af te dwingen hoe bepaalde feiten

55
00:04:06,000 --> 00:04:10,000
in de analoge wereld zouden moeten zijn. geïllustreerd en geïllustreerd.

56
00:04:10,000 --> 00:04:14,000
En mijn titel, vandaag gaat het over wiki-wereldbeelden,

57
00:04:14,000 --> 00:04:17,000
ik ondertekende de titel met onderschatte afbeeldingen,

58
00:04:17,000 --> 00:04:20,000
bijschriften en digitale beeldpraktijken.

59
00:04:20,000 --> 00:04:24,000
Dus mijn zorg is nu hoe

60
00:04:24,000 --> 00:04:28,000
wereldbeelden worden geconstrueerd en gecreëerd met behulp van afbeeldingen op Wikipedia.

61
00:04:28,000 --> 00:04:35,000
En dat dit een aspect is, een onderwerp dat echt heel erg de moeite waard is om te bespreken.

62
00:04:35,000 --> 00:04:40,000
Precies, voordat we aan de daadwerkelijke presentaties begonnen,

63
00:04:40,000 --> 00:04:45,000
wilden we twee blokken hebben waarin Ziko en ik onze verklaringen zouden presenteren.

64
00:04:45,000 --> 00:04:51,000
En je zou op dit punt mijn tweede dia kunnen laten zien voor mijn uitspraken.

65
00:04:51,000 --> 00:04:54,000
Ziko en ik dachten elk na over drie stellingen.

66
00:04:54,000 --> 00:04:57,000
Ik heb een kleine preview toegevoegd van het onderwerp

67
00:04:57,000 --> 00:05:01,000
dat we alleen vandaag kunnen bespreken, maar dat

68
00:05:01,000 --> 00:05:06,000
in de toekomst waarschijnlijk ook van relatief groot belang zal zijn voor de Wikipedia-gemeenschap.

69
00:05:06,000 --> 00:05:10,000
Mijn stelling is dus dat afbeeldingen niet alleen Wikipedia-artikelen lichter maken.

70
00:05:10,000 --> 00:05:14,000
Ze illustreren deze niet alleen, maar ze suggereren nog veel meer wereldbeelden

71
00:05:14,000 --> 00:05:19,000
en kunnen ook leiden tot thematische vervormingen en vooringenomenheid.

72
00:05:20,000 --> 00:05:24,000
Ten tweede concretiseren ondertitels de betekenis,

73
00:05:24,000 --> 00:05:27,000
de relatief open betekenis van beelden in de betreffende context.

74
00:05:27,000 --> 00:05:31,000
En ze mogen dus niet onderschat worden op Wikipedia.

75
00:05:31,000 --> 00:05:35,000
Het zijn relatief kleine teksten, de onderschriften, maar naar mijn mening zijn ze

76
00:05:35,000 --> 00:05:39,000
van groot belang voor de algemene betekenis van een artikel.

77
00:05:39,000 --> 00:05:44,000
En ten slotte is de omgang met afbeeldingen en tekst-beeldconstellaties in de cultuur

78
00:05:44,000 --> 00:05:49,000
van digitaliteit een onderwerp dat de moeite waard is om te bespreken, ook voor de Wikipedia-gemeenschap.

79
00:05:49,000 --> 00:05:53,000
We hebben digitale platforms die natuurlijk erg veel beeld bevatten, zoals

80
00:05:53,000 --> 00:05:58,000
Instagram, maar op Wikipedia

81
00:05:58,000 --> 00:06:02,000
zijn afbeeldingen en hun bijschriften en de teksten rondom afbeeldingen ook erg belangrijk.

82
00:06:02,000 --> 00:06:06,000
En ik denk dat er nog steeds ruimte is voor verbetering

83
00:06:06,000 --> 00:06:10,000
als het gaat om de regels voor het gebruik van afbeeldingen op Wikipedia, en dat er

84
00:06:10,000 --> 00:06:13,000
misschien een paar aspecten in de Wikipedia-regels kunnen worden opgenomen.

85
00:06:13,000 --> 00:06:19,000
En de vooruitzichten hebben betrekking op de distributie van afbeeldingen die zijn gegenereerd met AI-tools.

86
00:06:19,000 --> 00:06:25,000
En vanuit mijn standpunt zijn er compleet nieuwe uitdagingen verbonden aan deze

87
00:06:25,000 --> 00:06:30,000
door AI gegenereerde afbeeldingen, vooral voor het ontwerp van Wikimedia-projecten.

88
00:06:30,000 --> 00:06:34,000
Precies, dat zijn mijn stellingen. Nu zou ik, vlak voordat ik met de lezing begin,

89
00:06:34,000 --> 00:06:39,000
deze aan Ziko overhandigen, zodat hij zijn scripties kort kan presenteren.

90
00:06:40,000 --> 00:06:45,000
Ja, dank je Eva. Nou, ik zal het kort en pijnloos maken, anders zien we wel.

91
00:06:45,000 --> 00:06:52,000
Stelling 1. De Wikimedia-beweging moet beter werk leveren met afbeeldingen en ik zal daar zo meteen voorbeelden van hebben.

92
00:06:52,000 --> 00:06:58,000
Stelling 2. Wat invloed kan hebben, heeft dat niet automatisch altijd.

93
00:06:58,000 --> 00:07:06,000
En stelling 3. Emancipatorische impulsen kunnen afglijden naar problematisch collectivisme.

94
00:07:06,000 --> 00:07:12,000
Bamm, dat zullen we zo meteen zien. Nu kijk ik uit naar de lezing van Eva.

95
00:07:12,000 --> 00:07:17,000
Ja heel erg bedankt Ziko, dan zou ik doorgaan. Op de volgende dia wil ik kort

96
00:07:17,000 --> 00:07:22,000
de belangrijkste punten bespreken die Maja noemde. Nou, ik heb een junior hoogleraarschap

97
00:07:22,000 --> 00:07:26,000
met tenure check voor de Duitse taalkunde, maar de taalkunde is

98
00:07:26,000 --> 00:07:32,000
de afgelopen jaren ook sterk uitgebreid met symbiotische visuele wetenschappelijke aspecten.

99
00:07:32,000 --> 00:07:38,000
Ook in de taalkunde speelt multimodaliteit, dat wil zeggen het gebruik van afbeeldingen, video’s en audiodocumenten,

100
00:07:38,000 --> 00:07:43,000
een grote rol. En juist deze multimodaliteit,

101
00:07:43,000 --> 00:07:48,000
dat wil zeggen het gebruik van afbeeldingen, video- en audiomateriaal op bijvoorbeeld Wikipedia, was ook het onderwerp van mijn

102
00:07:48,000 --> 00:07:55,000
habilitatiescriptie, die ik in 2022 verdedigde tijdens een habilitatiecolloquium.

103
00:07:55,000 --> 00:08:02,000
En ik was ook geïnteresseerd in de effecten van bepaalde beeldinventarisaties

104
00:08:02,000 --> 00:08:07,000
op de betekenis van artikelen. Ja, de afgelopen jaren zijn

105
00:08:07,000 --> 00:08:13,000
enkele van mijn publicaties op Wikipedia en Wikipedactics verschenen in de context van dit habilitatieproject .

106
00:08:13,000 --> 00:08:20,000
Ik ben dus geïnteresseerd in hoe je internetgebruikers, vooral jongeren, kennis kunt laten maken met het reflectieve gebruik van Wikipedia

107
00:08:20,000 --> 00:08:24,000
in onderwijscontexten, of dat nu op school of op de universiteit is . Ik ervaar keer

108
00:08:24,000 --> 00:08:29,000
op keer dat vooral de zogenaamde digital natives Wikipedia zeer intensief gebruiken,

109
00:08:29,000 --> 00:08:33,000
maar bijvoorbeeld de discussiepagina's en de versiegeschiedenis helemaal niet kennen,

110
00:08:33,000 --> 00:08:38,000
dus ze hebben nooit een kijkje achter de schermen van Wikipedia genomen en dat ze zeer centrale aspecten missen

111
00:08:38,000 --> 00:08:44,000
, om wiki's in het algemeen, maar ook Wikipedia in het bijzonder, te begrijpen.

112
00:08:44,000 --> 00:08:48,000
En daarom heb ik de insteek om, bijvoorbeeld in mijn universitaire seminars hier met studenten,

113
00:08:48,000 --> 00:08:54,000
goed te kijken waar je bijvoorbeeld argumenten kunt vinden voor het gebruik van bepaalde afbeeldingen op de

114
00:08:54,000 --> 00:08:58,000
discussiepagina's. Dus dat gaat kort over mij. En het is precies tegen deze achtergrond

115
00:08:58,000 --> 00:09:04,000
dat ik mijn presentatie van vandaag op de volgende dia in een grotere context wil

116
00:09:04,000 --> 00:09:10,000
plaatsen. Hoe komt het dat ik Wikipedia integreer in mijn universitaire seminars? Sinds 2022 beschikken we nu

117
00:09:10,000 --> 00:09:17,000
over nieuwe onderwijsnormen en het theoretische raamwerk voor deze onderwijsnormen,

118
00:09:17,000 --> 00:09:22,000
Dit zijn de vaardigheden die de leerlingen van vandaag tijdens de Duitse lessen zouden moeten verwerven.

119
00:09:22,000 --> 00:09:31,000
Er is veel over het onderwerp digitaliteit en digitaliteit als cultuurvormend

120
00:09:31,000 --> 00:09:37,000
raamwerk van onze tijd. En heel specifiek zijn deze onderwijsnormen, die

121
00:09:38,159 --> 00:09:44,159
op scholen in het hele land of op staatsniveau moeten worden geïmplementeerd,

122
00:09:44,159 --> 00:09:48,000
bedoeld om de onderwijsplannen en schoolcurricula te beïnvloeden.

123
00:09:48,000 --> 00:09:55,000
Stalder wordt expliciet genoemd in zijn boek ‘Culture of Digitality’ en hij zegt dat er drie centrale vormen van cultuur

124
00:09:55,000 --> 00:10:00,000
van digitaliteit zijn. Enerzijds is er gemeenschappelijkheid, referentialiteit en

125
00:10:00,000 --> 00:10:07,000
algoritmiciteit. Als het om gemeenschap gaat, zijn er de afgelopen twintig tot dertig jaar een aantal

126
00:10:07,000 --> 00:10:13,000
projecten ontstaan ​​waarin Commons zijn opgebouwd. Hieronder valt ook Wikipedia

127
00:10:13,000 --> 00:10:20,000
met zijn vrij toegankelijke teksten. En Stalder legt uit dat er in deze context nieuwe

128
00:10:20,000 --> 00:10:26,000
algemene instituties zijn ontstaan ​​en hij beschrijft Wikipedia bijvoorbeeld als een

129
00:10:26,000 --> 00:10:31,000
zogenaamde ad hoc meritocratie, wat betekent dat degenen die daar al heel lang bestaan ​​ook

130
00:10:31,000 --> 00:10:39,000
de macht hebben om bepaalde teksten te bewerken en om breng beelden in bij de onderhandelingen over encyclopedisch relevante

131
00:10:39,000 --> 00:10:44,000
kwesties. Referentialiteit wijst hij er bijvoorbeeld op, met betrekking tot

132
00:10:44,000 --> 00:10:51,000
digitale fotografie, dat met de mogelijkheid om digitale beelden te maken met behulp van

133
00:10:51,000 --> 00:10:59,000
bijvoorbeeld smartphones, de artefacten, d.w.z. foto's, zich hebben vermenigvuldigd en gemakkelijk beschikbaar zijn en dat

134
00:10:59,000 --> 00:11:05,000
veel mensen erop vertrouwen dat ze toegang hebben tot digitale foto's. artefacten via internet, deel ze,

135
00:11:05,000 --> 00:11:11,000
koppel ze en gebruik ze voor hun eigen doeleinden. En tenslotte beschrijft hij

136
00:11:11,000 --> 00:11:17,000
algoritmiciteit. Ik denk dat iedereen dat weet. En het aspect dat vooral belangrijk is, is dat

137
00:11:17,000 --> 00:11:23,000
kunstmatige intelligentie nu kan worden gebruikt om bijvoorbeeld beelden te genereren. Dit betekent dat

138
00:11:23,000 --> 00:11:29,000
het aantal beschikbare afbeeldingen daadwerkelijk is toegenomen en dat

139
00:11:29,000 --> 00:11:35,000
hier ook de neiging kan worden vastgesteld om bepaalde mensen of feiten weer te geven. Dan ga ik

140
00:11:35,000 --> 00:11:40,000
verder met de volgende dia en wil hier graag enkele gedachten uit de taalkunde delen. In

141
00:11:40,000 --> 00:11:45,000
de taalkunde wordt dus aangenomen dat veel hulpmiddelen, gebarenmiddelen zoals taal, afbeeldingen, typografie,

142
00:11:45,000 --> 00:11:51,000
bijdragen aan het creëren van betekenis in teksten. En dat juist hun interactie belangrijk is bij

143
00:11:51,000 --> 00:11:57,000
het creëren van betekenis in teksten. En deze hulpbronnen vervullen heel verschillende taken.

144
00:11:57,000 --> 00:12:02,000
Ik zal je straks in detail laten zien wat dat betekent. Misschien nog een belangrijk citaat. Al in 2009 schreef Warnke

145
00:12:02,000 --> 00:12:08,000
over de kennismaatschappij dat de naïeve opvatting dat kennismaatschappijen

146
00:12:08,000 --> 00:12:12,000
door rationeel gebaseerde kennis beschermd zijn tegen de invloed van meningen, anderzijds gebaseerd is op

147
00:12:12,000 --> 00:12:17,000
de intersubjectief geborgde aanname dat kennis opinie is. en uiteindelijk machtsneutraal.

148
00:12:17,000 --> 00:12:22,000
Het tegendeel is het geval. Omdat kennis fundamenteel wordt betwist, vooral in

149
00:12:22,000 --> 00:12:30,000
kennismaatschappijen die via de massamedia opereren. Wat betekent dat? De aanname dat kennis neutraal kan zijn,

150
00:12:30,000 --> 00:12:36,000
maakt neutraal, wat betekent dat constellatie geen rol speelt. Hij verwerpt die stelling hier,

151
00:12:36,000 --> 00:12:42,000
maar kennis wordt fundamenteel betwist en intensief gedeeld. Ik denk dat dit een

152
00:12:42,000 --> 00:12:48,000
punt is dat ook heel, heel sterk van toepassing is op Wikipedia. Op de volgende dia wil ik

153
00:12:48,000 --> 00:12:56,000
laten zien welke functies en eigenschappen in de taalkunde aan beelden worden toegeschreven en ook welke

154
00:12:56,000 --> 00:13:02,000
functie taal vervult. Als het om beelden gaat, betekent dit dat ze

155
00:13:02,000 --> 00:13:07,000
gelijktijdig en holistisch worden waargenomen, dat ze snel kunnen worden waargenomen, dat ze een sterk geheugen en impact hebben,

156
00:13:07,000 --> 00:13:13,000
en dat ze verbonden zijn met emoties. En als het gaat om het betekenispotentieel, kun je zeggen dat beelden

157
00:13:13,000 --> 00:13:18,000
gepaard gaan met een overdaad aan betekenis, omdat ze objecten kunnen tonen die rijk zijn aan kenmerken. Maar tegelijkertijd zijn ze vaag en

158
00:13:18,000 --> 00:13:24,000
onderbepaald. Dit betekent dat ze een breed scala aan mogelijke betekenissen met zich meebrengen. Daarnaast

159
00:13:24,000 --> 00:13:29,000
kunnen beelden ook gepaard gaan met emotionele oproepen en handelingsinstructies. Bij

160
00:13:29,000 --> 00:13:34,000
taal is de waarneming subcessiever, lineair en aanzienlijk langzamer dan bij

161
00:13:34,000 --> 00:13:40,000
beelden. Hun betekenis is stevig verankerd en de betekenis is precies en duidelijk vergeleken met de betekenis van het beeld

162
00:13:40,000 --> 00:13:45,000
. Als we aan wetenschappelijke teksten denken, denk ik dat dat heel erg is

163
00:13:45,000 --> 00:13:51,000
pakkend en inzichtelijk. En teksten kunnen actie in de tijd weergeven, logische verbanden leggen

164
00:13:51,000 --> 00:13:56,000
en er zijn allerlei verwijzingen mogelijk. Je kunt taal bijvoorbeeld gebruiken om

165
00:13:56,000 --> 00:14:01,000
over taal te praten, wat bij beelden niet het geval is; je

166
00:14:01,000 --> 00:14:07,000
kunt in wezen over beelden nadenken met beelden. Op de volgende dia wil ik dit wat meer verduidelijken. Ik

167
00:14:07,000 --> 00:14:12,000
heb het duurzaamheidsdiscours op Wikipedia nader bekeken, d.w.z. de vraag hoe duurzaamheid

168
00:14:12,000 --> 00:14:18,000
specifiek wordt onderhandeld en gepresenteerd in het artikel Duurzaamheid op Wikipedia. En hier is het

169
00:14:18,000 --> 00:14:24,000
dat er een of meer afbeeldingen te vinden zijn op het Wikipedia-artikel of in het Wikipedia-

170
00:14:24,000 --> 00:14:30,000
artikel. En op één ervan is een soort gebouw te zien, waarschijnlijk een stal met heel veel

171
00:14:30,000 --> 00:14:38,000
varkens. En nu is de vraag: wat is het en wat het ons moet laten zien, wordt

172
00:14:38,000 --> 00:14:43,000
concreet gemaakt door het onderschrift. Maar nu is het zo dat hierover heel zwaar wordt onderhandeld en aan

173
00:14:43,000 --> 00:14:48,000
de hand van de versiegeschiedenis kan worden gereconstrueerd dat het onderschrift

174
00:14:48,000 --> 00:14:55,000
ook heel vaak wordt gewijzigd. Namelijk een gebruiker op 17 november 2017 en 16.28. beschrijft wat

175
00:14:55,000 --> 00:15:01,000
hier op de foto te zien is als moderne bio-industrie. En dit wordt in de Duden relatief duidelijk en met negatieve

176
00:15:01,000 --> 00:15:07,000
connotaties als volgt gedefinieerd. Dit is gemechaniseerde veehouderij op grote boerderijen om

177
00:15:07,000 --> 00:15:13,000
zoveel mogelijk dierlijke producten te produceren, en heeft dus een nogal negatieve connotatie. En in het geval van de veehouderij,

178
00:15:13,000 --> 00:15:17,000
zoals in het tweede plaatje, kan de moderne veehouderij duurzaam zijn als er

179
00:15:17,000 --> 00:15:23,000
rekening wordt gehouden met een efficiënte benadering van hulpbronnen, gebruik, milieueisen, veehouderijomstandigheden enzovoort

180
00:15:23,000 --> 00:15:29,000
. Je kunt hier dus zien dat een en dezelfde afbeelding

181
00:15:29,000 --> 00:15:35,000
heel verschillende onderschriften krijgt en dat het de bedoeling is dat de potentiële betekenis die bij de afbeelding hoort,

182
00:15:35,000 --> 00:15:41,000
nauwkeuriger wordt gemaakt door het schrijven, door de tekst die bij de afbeelding hoort. En we zien ook dat het

183
00:15:41,000 --> 00:15:47,000
beeld hier relatief geduldig is, zodat het alleen maar dient ter illustratie van de mogelijkheden voor beeldbetekenis

184
00:15:47,000 --> 00:15:52,000
en de eigenschappen die met beelden gepaard gaan, in tegenstelling tot wat schrijven en tekst

185
00:15:52,000 --> 00:15:58,000
kunnen bereiken. Dan kom ik bij de volgende slide en wil ik kort

186
00:15:58,000 --> 00:16:04,000
de informatie op Wikipedia over het illustreren van artikelen vermelden. Dit betekent dat

187
00:16:04,000 --> 00:16:09,000
het illustreren van het artikel aanzienlijk kan bijdragen aan het begrijpen van de artikeltekst en ook

188
00:16:09,000 --> 00:16:13,000
de body losser kan maken. Vanuit mijn oogpunt is dit een punt waarop beelden eigenlijk worden onderschat.

189
00:16:13,000 --> 00:16:18,000
Afbeeldingen en illustraties van artikelen gaan dus niet alleen over het losmaken van de zaken, maar feitelijk worden,

190
00:16:18,000 --> 00:16:23,000
zoals ik al zei, wereldbeelden gepresenteerd. Hij wil dat de zorgvuldig geselecteerde mediabestanden

191
00:16:23,000 --> 00:16:28,000
op de juiste plaats ten opzichte van de tekst worden geïntegreerd, zodat de tekst niet wordt gedomineerd

192
00:16:28,000 --> 00:16:33,000
en de leesbaarheid niet wordt aangetast. Dit gaat dus specifiek over tekst-beeldconstellaties.

193
00:16:33,000 --> 00:16:38,000
Er moet sprake zijn van een verwijzing naar de inhoud, een betekenis, dat wil zeggen relevantie van het beeld en, tot op zekere

194
00:16:38,000 --> 00:16:43,000
hoogte, representativiteit. Nu zou ik graag naar individuele voorbeelden op de volgende

195
00:16:43,000 --> 00:16:51,000
dia willen kijken en willen laten zien dat wat hier relatief weinig wordt besproken,

196
00:16:51,000 --> 00:16:57,000
in bepaalde artikelen problematisch kan zijn of op zijn minst de discussie zou moeten stimuleren. Precies,

197
00:16:57,000 --> 00:17:05,000
volgende dia alstublieft. Precies, hier hebben we de beeldinventaris, d.w.z. de afbeeldingen die

198
00:17:05,000 --> 00:17:12,000
zijn opgenomen in het artikel over Marie Curie zijn geïntegreerd en ik wil graag

199
00:17:12,000 --> 00:17:18,000
een citaat toevoegen van de Diversathon 2021, een evenement binnen de Wikipedia-gemeenschap

200
00:17:18,000 --> 00:17:24,000
dat omgaan met afbeeldingen is besproken , vooral met betrekking tot vrouwen, en er staat dat je

201
00:17:24,000 --> 00:17:29,000
in artikelen over vrouwen het gebruik van afbeeldingen van de vader van haar man of haar familie moet vermijden,

202
00:17:29,000 --> 00:17:34,000
tenzij dit absoluut noodzakelijk is en het artikel kwaliteit geeft. Deze afbeeldingen

203
00:17:34,000 --> 00:17:39,000
hebben de neiging de individualiteit van vrouwen te negeren zonder belangrijke informatie aan het artikel toe te voegen.

204
00:17:39,000 --> 00:17:45,000
We hebben hier nu iemand die

205
00:17:45,000 --> 00:17:50,000
zijn belangrijke wetenschappelijke bevindingen aan het einde van de 19e eeuw en het begin van de 20e eeuw heeft ontwikkeld en daarom hebben we

206
00:17:50,000 --> 00:17:56,000
hier ook historische beeldinventarissen en zoals je kunt zien, is wat in de afleiding wordt beschreven hier,

207
00:17:56,000 --> 00:18:01,000
maar ja daadwerkelijk geïmplementeerd, namelijk dat Marie Curie

208
00:18:01,000 --> 00:18:07,000
in context wordt getoond, in constellatie, constellatie van beelden die bijvoorbeeld de vader, de echtgenoot en Marie Curie vertegenwoordigen

209
00:18:07,000 --> 00:18:13,000
Hier staat het op veel plaatsen niet centraal, ook al is er een Wikipedia-artikel

210
00:18:13,000 --> 00:18:20,000
dat het bespreekt. Hier hebben we bijvoorbeeld Wladyslaw Sklodowski met zijn drie dochters en

211
00:18:20,000 --> 00:18:27,000
een van hen is Marie Curie, die later Marie Curie werd genoemd. Precies,

212
00:18:27,000 --> 00:18:33,000
je ziet hier een historische constellatie van mensen die we waarschijnlijk

213
00:18:33,000 --> 00:18:38,000
vaak terugvinden op plaatjes uit de 19e eeuw, maar de vraag die hier opkomt is of zo’n

214
00:18:38,000 --> 00:18:43,000
plaatje zal voldoen aan de eisen van een online encyclopedie van de 21e eeuw. als de persoon

215
00:18:43,000 --> 00:18:50,000
in kwestie hier helemaal niet centraal wordt geplaatst, maar er familiebeelden worden gereproduceerd

216
00:18:50,000 --> 00:18:57,000
die vandaag de dag niet meer houdbaar zijn, dat de vader zo centraal wordt geplaatst en wellicht juist

217
00:18:57,000 --> 00:19:02,000
niet past bij een artikel dat eigenlijk bedoeld is om een vrouw met haar wetenschappelijke

218
00:19:02,000 --> 00:19:07,000
prestaties. We zien haar dan weer met haar dochter en haar man,

219
00:19:07,000 --> 00:19:13,000
Pierre Curie, en best spannend uit een eerdere versie is de foto die vervolgens is ondertekend met

220
00:19:13,000 --> 00:19:18,000
de weduwe met haar jonge dochters Eve en Irène en hier zit eigenlijk Marie Curie

221
00:19:18,000 --> 00:19:24,000
in het midden , maar in het onderschrift staat de relationele

222
00:19:24,000 --> 00:19:30,000
persoonlijke naam weduwe, dus ze wordt

223
00:19:30,000 --> 00:19:36,000
in relatie geplaatst tot haar reeds overleden echtgenoot en de vraag is waarom hier het woord weduwe staat en niet bijvoorbeeld wetenschapper,

224
00:19:36,000 --> 00:19:42,000
dus waarom daarop zou moeten staan merkte op dat er hier geen man op de foto staat. De vraag is:

225
00:19:42,000 --> 00:19:47,000
is dit een relevant aspect, moet het beeld eigenlijk zo concreet gemaakt worden door het onderschrift?

226
00:19:47,000 --> 00:19:53,000
Het is eigenlijk al opgelost, dus in de huidige versie is het niet meer terug te vinden,

227
00:19:53,000 --> 00:19:59,000
maar het is natuurlijk een leuk punt om beeldinventarisaties en bijschriften, tekstbeeldconstellaties te illustreren.

228
00:19:59,000 --> 00:20:05,000
Bovenaan staat de ingelijste foto, Pierre en Marie Curie in hun laboratorium aan de Rue Curie.

229
00:20:05,000 --> 00:20:10,000
Er heeft zich een zeer opwindende discussie ontwikkeld op de overeenkomstige discussiepagina en ik heb

230
00:20:10,000 --> 00:20:15,000
nog een fragment op de volgende dia, Simon, als je verder kunt klikken, alsjeblieft.

231
00:20:15,000 --> 00:20:22,000
Precies, hartelijk dank. De vraag is welk beeld eigenlijk gebruikt moet worden om

232
00:20:22,000 --> 00:20:28,000
Marie Curie in haar werkcontext weer te geven. Daar op de overlegpagina staat:

233
00:20:28,000 --> 00:20:33,000
hallo Suku, waarom heb je de voorkeur gegeven aan jouw foto links boven mijn foto en heb je mijn wijziging ongedaan gemaakt?

234
00:20:33,000 --> 00:20:39,000
Dit gaat over Marie, en de hoofdpersoon moet naar de kijker kijken, groeten van OS en dan het antwoord,

235
00:20:39,000 --> 00:20:44,000
je spant het paard achter de wagen, het is aan jou om uit te leggen waarom je

236
00:20:44,000 --> 00:20:49,000
jouw verandering in deze vorm als een artikel verbetering. Attributen als indrukwekkend of het idee dat

237
00:20:49,000 --> 00:20:54,000
de hoofdpersoon naar de kijker moet kijken, zijn hier nogal subjectief. Wat dit fragment van de

238
00:20:54,000 --> 00:21:00,000
discussiepagina laat zien, is dat er daadwerkelijk discussies over afbeeldingen plaatsvinden en dat er in de loop van de

239
00:21:00,000 --> 00:21:06,000
geschiedenis van Wikipedia de afgelopen 22 jaar veel is verbeterd op het gebied van het onderwerp,

240
00:21:07,000 --> 00:21:13,000
reflecties op afbeeldingen, beelddiscussies en de vraag hoe vrouwen of andere groepen

241
00:21:13,000 --> 00:21:19,000
in beeld moeten worden gebracht is daar als het ware een voorbeeld van.

242
00:21:19,000 --> 00:21:26,000
Op de volgende dia wil ik graag bij een ander voorbeeld komen, dat nu over

243
00:21:26,000 --> 00:21:32,000
een architectenpaar gaat, de ene is Elisabeth Böhm en de andere is Gottfried Böhm, die allebei

244
00:21:32,000 --> 00:21:37,000
een Wikipedia-artikel hebben. En ook hier heb ik een citaat meegenomen

245
00:21:37,000 --> 00:21:43,000
dat op Wikipedia te vinden is, maar in de context van de Engelse versie van Wikipedia staat:

246
00:21:43,000 --> 00:21:48,000
Wat je hier in deze kleine fragmenten van het beeldmateriaal ziet, is dat Elisabeth Böhm

247
00:21:48,000 --> 00:21:53,000
veel aan de hand heeft. Er is minder beeldmateriaal en we zien hier vooral het familiegraf en

248
00:21:53,000 --> 00:21:58,000
ook zij is nog een keer afgebeeld samen met haar man en hieronder in de associatieve verwijzingen

249
00:21:58,000 --> 00:22:03,000
die hier aan de zijkant van de foto's worden getoond is het beeldmateriaal dat hier in de

250
00:22:03,000 --> 00:22:08,000
bibliotheek staat , die hier in de bibliotheek, in de bibliotheek, in de bibliotheek, in de bibliotheek is,

251
00:22:08,000 --> 00:22:14,000
wordt ook nog een keer getoond met haar man en hieronder in de associatieve verwijzingen

252
00:22:14,000 --> 00:22:19,000
worden de mannen van deze architectenfamilie getoond, maar zij wordt daar niet getoond alle.

253
00:22:19,000 --> 00:22:26,000
Hoe zit het dan met haar man? Het punt is dat we daar veel foto's hebben

254
00:22:26,000 --> 00:22:31,000
Er zijn gebouwen terug te vinden die hij ontwierp, terwijl bij Elisabeth Böhm op een gegeven moment geen enkel gebouw dat

255
00:22:31,000 --> 00:22:36,000
zij ontwierp in het artikel werd geïntegreerd, en dat is lange tijd zo geweest

256
00:22:36,000 --> 00:22:41,000
. Op de volgende dia liet ik het nog een keer zien, zodat je

257
00:22:41,000 --> 00:22:46,000
het iets groter kunt zien. De vraag hier is dus: waarom is zij

258
00:22:46,000 --> 00:22:51,000
als architect op Wikipedia opgenomen? Het voldeed dus aan de relevantiecriteria. Maar waarom zijn

259
00:22:51,000 --> 00:22:57,000
haar gebouwen niet ook geïntegreerd in het Wikipedia-artikel? Waarom zijn er hier beelden

260
00:22:57,000 --> 00:23:04,000
die haar niet echt weergeven

261
00:23:04,000 --> 00:23:12,000
in haar wetenschap of in haar professionele rol als architect ? Op de volgende dia zou ik

262
00:23:12,000 --> 00:23:17,000
een tekst-beeldconstellatie willen betreden en zoiets als multimodale lege ruimtes willen weergeven. Maar eerst wil ik even

263
00:23:17,000 --> 00:23:23,000
terug naar de tekst die bij de plaatjes staat. Er wordt gezegd dat ze na haar huwelijk in 1948, daarna als

264
00:23:23,000 --> 00:23:29,000
echtgenote, maar niet officieel als werknemer, op het architectenbureau werkte en na de

265
00:23:29,000 --> 00:23:35,000
toestemming om geschriften, die ze in de bibliotheek kreeg, van vier zonen te verkopen, meer liet zien aanwezigheid op het

266
00:23:35,000 --> 00:23:40,000
kantoor in Böhm. Dit zijn fragmenten die ik hier heb benadrukt. Dus vanuit mijn oogpunt

267
00:23:40,000 --> 00:23:46,000
is dit een voorbeeld van een artikel dat heel, heel sterk

268
00:23:46,000 --> 00:23:52,000
de familierollen van deze architect benadrukt, naar mijn mening te veel benadrukt en in delen ook op een respectloze manier beschreven

269
00:23:52,000 --> 00:24:00,000
. Ik kan mezelf zeker de vraag stellen: zijn dit formuleringen die benadrukken dat ze

270
00:24:00,000 --> 00:24:07,000
beide heeft gecombineerd of verenigd, dat wil zeggen familierollen en professionele rollen, of is het

271
00:24:07,000 --> 00:24:13,000
zo dat haar status als architect, haar professionele rol, niet serieus werd genomen?

272
00:24:13,000 --> 00:24:18,000
en werd hier te respectloos besproken. Zoals ik al zei, zie je hem hier nog eens in het frame zonder

273
00:24:18,000 --> 00:24:24,000
foto. Een foto van gebouwen die ze ontwierp, was lange tijd niet in haar artikel geïntegreerd.

274
00:24:24,000 --> 00:24:32,000
Op de volgende dia zal ik echter nog een fragment uit

275
00:24:32,000 --> 00:24:40,000
het artikel van Gottfried Böhm laten zien. En daar is het dan dat de WDR-arcades, die

276
00:24:40,000 --> 00:24:45,000
grotendeels zijn ontworpen door Elisabeth Böhm, daadwerkelijk zijn geïntegreerd met een afbeelding. In principe zou via Wikimedia [Commons] een geschikte afbeelding

277
00:24:45,000 --> 00:24:51,000
beschikbaar zijn geweest, maar deze werd alleen geïntegreerd in die van Gottfried Böhm, terwijl

278
00:24:51,000 --> 00:25:00,000
bij Elisabeth Böhm geen foto van dit gebouw te vinden is. En op de volgende dia wil ik

279
00:25:00,000 --> 00:25:04,000
het hebben over digitale beeldpraktijken, ook een klein aspect dat

280
00:25:04,000 --> 00:25:09,000
misschien kan worden gebruikt om zonder veel moeite een of twee artikelen te verbeteren. Ik heb eerder gezegd dat de

281
00:25:09,000 --> 00:25:18,000
Diversathon bepaalde dat het gepast zou zijn om vrouwen centraal op foto's te zien en niet

282
00:25:18,000 --> 00:25:25,000
in familieopstellingen met echtgenoten, zonen of wat dan ook. Elisabeth Böhm had zelfs

283
00:25:25,000 --> 00:25:31,000
lange tijd een foto met haar man in het artikel geïntegreerd. Bij Gottfried Böhm daarentegen

284
00:25:31,000 --> 00:25:37,000
werd een afbeelding bijgesneden, een digitaal beeld werd bijgesneden en aangepast zodat

285
00:25:37,000 --> 00:25:42,000
Gottfried Böhm centraal te zien was. En zoals we kunnen zien, was dit een foto

286
00:25:42,000 --> 00:25:49,000
waarop ook andere mensen te zien zijn. De vraag is nu: waarom rangschik je de foto van de man

287
00:25:49,000 --> 00:25:55,000
zo dat hij centraal staat? Voor de vrouw is het echter eigenlijk weer de familieopstelling.

288
00:25:55,000 --> 00:26:05,000
De man staat centraal op de foto. En dan kom ik bij mijn laatste inhoudelijke slide.

289
00:26:06,000 --> 00:26:11,000
Wat ik hier alleen kan aanstippen, maar wat ik echt interessant vind en

290
00:26:11,000 --> 00:26:17,000
graag in de discussie hier wil betrekken, is het onderwerp van door AI gegenereerde beelden. Ik noemde het een zegen of een vloek.

291
00:26:17,000 --> 00:26:22,000
Ik zie dus zeker voordelen van AI-gegenereerde beelden. Bepaalde historische constellaties zouden misschien

292
00:26:22,000 --> 00:26:28,000
beter of op een meer eigentijdse manier kunnen worden gepresenteerd met behulp van door AI gegenereerde beelden.

293
00:26:28,000 --> 00:26:33,000
Maar dat is een gewaagde stelling. Maar wat mij op dit moment opvalt, vooral op Wikimedia, is

294
00:26:33,000 --> 00:26:38,000
dat er dagelijks een ongelooflijk groot aantal afbeeldingen op Wikimedia wordt geplaatst

295
00:26:38,000 --> 00:26:46,000
die zeer, zeer sterk genderstereotiepe afbeeldingen van vrouwen zijn of als zodanig kunnen worden gezien.

296
00:26:46,000 --> 00:26:52,000
En de vraag is nu: wat doet het met Wikimedia en wat doet het met de illustraties op Wikipedia

297
00:26:52,000 --> 00:27:00,000
als we zo’n stortvloed aan door AI gegenereerde afbeeldingen zien die verre van aan de criteria voldoen?

298
00:27:00,000 --> 00:27:06,000
waaraan afbeeldingen op Wikipedia doorgaans moeten voldoen. Misschien is dit ook een mooi startpunt

299
00:27:06,000 --> 00:27:13,000
voor het bespreken van regels op Wikipedia over afbeeldingen. En dan heb ik alleen nog de laatste slide,

300
00:27:13,000 --> 00:27:20,000
waarop nogmaals hartelijk dank staat voor uw aandacht. En daarmee zou ik het aan Ziko overhandigen voor de replica.

301
00:27:20,000 --> 00:27:32,000
Ja bedankt. Hoor je me? Ja, hoor je mij? OK. Ja, lieve Eva, hartelijk dank voor de zeer interessante lezing.

302
00:27:32,000 --> 00:27:40,000
Ik ben bang dat het debat geen erg spectaculair gevecht zal worden, in ieder geval niet vanwege het vriendschappelijke ruimtevaartbeleid.

303
00:27:40,000 --> 00:27:48,000
Maar ik ben het grotendeels eens met uw diagnose: ‘hoewel’. En dan zal ik aan het einde iets zeggen over de derde scriptie.

304
00:27:48,000 --> 00:27:53,000
Er valt nog veel te verbeteren op Wikipedia. Dit betekent dat ik vaak direct aan de therapie denk,

305
00:27:53,000 --> 00:27:59,000
maar ook moet stoppen bij de diagnose. Laten we dan eens kijken naar het artikel Elisabeth Böhm.

306
00:27:59,000 --> 00:28:06,000
Dus over het geheel genomen lijken sommige dingen eigenlijk vreemd, de vrouw als aanhangsel van de echtgenoot.

307
00:28:06,000 --> 00:28:12,000
Maar als ik beter kijk, is er een navigatiebalk met een foto en ontbreekt mevrouw Böhm.

308
00:28:13,000 --> 00:28:20,000
Dat is waar, maar er ontbreken ook andere. En de Wikipedia-auteur, je kunt altijd zien wie het zo transparant heeft gedaan,

309
00:28:20,000 --> 00:28:26,000
d.w.z. degene die ik ook ken, de Wikipedia-auteur had toen de keuze tussen een foto van mevrouw en meneer Böhm

310
00:28:26,000 --> 00:28:32,000
of degene die zij koos Foto met meneer Böhm en drie mannelijke familieleden. En toen dacht de auteur waarschijnlijk:

311
00:28:32,000 --> 00:28:37,000
ik maak de foto met de meeste gezichten. Dat is dus geen vrouwenhaat, tenzij

312
00:28:37,000 --> 00:28:45,000
je natuurlijk zou kunnen beargumenteren dat mevrouw Böhm individueel veel relevanter is dan de drie heren.

313
00:28:45,000 --> 00:28:52,000
En als het om therapie gaat, denk ik dat je met navigatiebalken toch het beste een foto kunt maken die alle elementen weergeeft.

314
00:28:52,000 --> 00:29:00,000
En als je er geen hebt, doe je het ook zonder. Dat had hier moeten gebeuren. Dus dat is eigenlijk een punt.

315
00:29:00,000 --> 00:29:07,000
Ja, en in de artikeltekst is er zelfs een sterke verwijzing naar de echtgenoot van Elisabeth Böhm.

316
00:29:07,000 --> 00:29:13,000
Therapie, je zou de tekst kunnen herschrijven. Maar dan vroeg ik mezelf af: zou ik dat durven?

317
00:29:13,000 --> 00:29:23,000
Omdat mijn gevoel zegt dat ik eerst de feiten beter moet kennen. Hoe zag het er uit in het huis van de Böhms en in het architectenbureau?

318
00:29:23,000 --> 00:29:28,000
En als ik het een klein beetje herformuleer, kan een uitspraak onjuist worden.

319
00:29:28,000 --> 00:29:37,000
Dan zou ik het nog eens in de literatuur moeten opzoeken. Maar ik vermoed dat de Wikipedia-auteur het artikel zeer gewetensvol heeft geschreven op basis van de literatuur.

320
00:29:37,000 --> 00:29:46,000
Zodat de beschuldigde stijl al voortkomt uit de gebruikte werken. En ja, Wikipedia is afhankelijk van literatuur.

321
00:29:46,000 --> 00:29:50,000
Niemand van ons kent Böhm persoonlijk. Dus wat moet je daar doen?

322
00:29:51,000 --> 00:29:58,000
Een ander onderwerp, de foto van Marie Curie. Moet de hoofdpersoon van een foto naar de kijker kijken?

323
00:29:58,000 --> 00:30:04,000
Of laten we het anders zeggen: moet de lemma-persoon naar de kijker kijken? En dat is een vraag op zich.

324
00:30:04,000 --> 00:30:13,000
Dat weet ik niet precies. Ik ken de regel niet eens. Ik geef in ieder geval toe dat het antwoord in de geciteerde discussie misschien wat papperig overkomt.

325
00:30:13,000 --> 00:30:16,000
En dat is niet goed voor de discussie. Ik begrijp dat.

326
00:30:16,000 --> 00:30:21,000
Sta mij toe een ander voorbeeld te gebruiken. Deze zomer heb ik, ik weet niet "heurig", is dat wat je zegt?

327
00:30:21,000 --> 00:30:28,000
Ik heb hier altijd mijn Oostenrijkshoedje van de Oostenrijkers. Nogmaals bedankt, Manfred.

328
00:30:28,000 --> 00:30:35,000
Dus werkte ik aan het artikel van deze zomer over de Titanic en dit schip met de ijsberg.

329
00:30:35,000 --> 00:30:40,000
En in het artikel stond een lange lijst van de prominente passagiers en daarna ook de rijke heren.

330
00:30:40,000 --> 00:30:52,000
Dit waren de "miljonairs" en de rijke dames waren de "echtgenoten van de miljonairs" of de eigenaar van het New Yorkse warenhuis Macy's, Isidor Straus en zijn vrouw Ida Straus.

331
00:30:52,000 --> 00:30:58,000
Dit relationele ding dat Eva heeft uitgewerkt. En toen hoorde ik een stem in mij.

332
00:30:58,000 --> 00:31:04,000
Wat moet dat betekenen? Ida Straus leefde als een miljonair. Wat is de zin van het slechte leven?

333
00:31:04,000 --> 00:31:12,000
Ik kan hier ook gewoon schrijven: Ida Straus, miljonair. Misschien was dat zelfs de stem van Eva in mijn achterhoofd die ik daar hoorde.

334
00:31:12,000 --> 00:31:19,000
Maar toen had ik een andere stem in mij. Ja, hoe was het juridisch en financieel in 1912?

335
00:31:19,000 --> 00:31:26,000
Ik ben geen expert op het gebied van sociaal recht, maar ik vermoed dat Ida Straus zelf geen miljoenen had.

336
00:31:26,000 --> 00:31:31,000
Op dat moment bepaalde alleen de man over het vermogen in het huwelijk.

337
00:31:31,000 --> 00:31:38,000
Als ik mevrouw Straus simpelweg "miljonair" zou noemen, zou ik de ongelijkheid negeren.

338
00:31:38,000 --> 00:31:46,000
En dus moet ik ook denken aan Marie Curie, die in het artikel niet altijd prominent als weduwe wordt afgeschilderd.

339
00:31:46,000 --> 00:31:54,000
Daar ben ik het mee eens. Maar ja, toen was het voor een vrouw heel belangrijk of ze echtgenote of weduwe was.

340
00:31:54,000 --> 00:32:01,000
Dit moet op passende wijze in het artikel worden behandeld. En hoe? Je moet erover praten en er wordt dan over onderhandeld.

341
00:32:01,000 --> 00:32:09,000
Ik zou overigens niet zeggen dat het artikel bedoeld is om de academische prestaties van de persoon te tonen, maar eerder zijn hele leven.

342
00:32:09,000 --> 00:32:17,000
Maar ja, natuurlijk zit je met de vraag in je hoofd: zou je het zo geschreven hebben als het een man was? De weduwnaar, de weduwnaar, de weduwnaar.

343
00:32:17,000 --> 00:32:25,000
Ik moet zeggen dat je derde stelling, Eva, scherper geformuleerd had kunnen worden.

344
00:32:25,000 --> 00:32:31,000
Ik denk dat de Wikimedia-beweging dringend de beeldcultuur naar een geheel nieuw niveau moet tillen.

345
00:32:31,000 --> 00:32:37,000
En je bericht heeft ons prachtig laten zien waar we nog meer op moeten letten. Hartelijk dank daarvoor.

346
00:32:37,000 --> 00:32:45,000
Ja, heel erg bedankt, Ziko. Misschien als antwoord op de replica.

347
00:32:45,000 --> 00:32:54,000
Ik zou dus natuurlijk denken dat het laatste punt dat je noemde geweldig zou zijn als er binnen Wikipedia meer discussie zou zijn over afbeeldingen en beeldculturen.

348
00:32:54,000 --> 00:33:03,000
Ik denk dat dit precies de richting is waarin het moet gaan. Zoals ik al zei, ter illustratie van het artikel op de regelpagina, zou ik een heel andere titel kiezen.

349
00:33:03,000 --> 00:33:14,000
Het moet dus echt duidelijk zijn dat beelden worden gebruikt om betekenissen in artikelen te construeren en dat bepaalde wereldbeelden worden gesuggereerd.

350
00:33:14,000 --> 00:33:26,000
Ik denk dus dat je de regels echt veel scherper en duidelijker zou kunnen formuleren, gebaseerd op de bevindingen van de visuele wetenschap, zonder zo'n naïeve opvatting van beelden te hebben.

351
00:33:27,000 --> 00:33:36,000
Afbeeldingen breken de tekst op, maar hebben geen functie meer. Ik overdrijf nu echt en breng de scherpte naar voren die sommige mensen in een ruzie verwachten.

352
00:33:36,000 --> 00:33:43,000
Maar ik denk dat er zeker nog verbetering nodig is om de regels specifieker te maken.

353
00:33:44,000 --> 00:33:54,000
Misschien nog een keer naar Elisabeth Böhm gaan. Ja, er zijn zeker historische feiten die bepaalde uitspraken in het artikel suggereren.

354
00:33:54,000 --> 00:34:05,000
Maar ik denk niet dat het gepast is als een architect haar artikelen uitsluitend structureert op basis van keerpunten in het gezin.

355
00:34:06,000 --> 00:34:17,000
Dat betekent omgaan met het huwelijk, de geboorte van zonen en het daarmee gepaard gaande ouderschapsverlof, ook al bestond dat toen nog niet.

356
00:34:17,000 --> 00:34:22,000
En door dergelijke formuleringen te gebruiken, bleek dat Böhm meer aanwezig was op kantoor.

357
00:34:22,000 --> 00:34:37,000
Dus vanuit mijn standpunt is dit een formulering die nogal respectloos is en die in het algemeen zowel haar gezinsverantwoordelijkheden als haar prestaties en verdiensten als architect niet voldoende respecteert.

358
00:34:37,000 --> 00:34:42,000
Precies, en dan is de vraag natuurlijk waarom dit ene beeld niet in haar is geïntegreerd.

359
00:34:42,000 --> 00:34:50,000
Ik moet zeggen dat het artikel intussen prachtig is herzien; naar mijn mening is er met heel weinig bewerkingen al veel bereikt.

360
00:34:50,000 --> 00:35:08,000
Om het antwoord op de replica af te ronden, zou ik er daarom op willen wijzen dat soms kleine veranderingen een zeer, zeer grote impact kunnen hebben en dat bijschriften en vooral natuurlijk afbeeldingen bij de constructie, bij de productie van betekenissen mag niet worden onderschat.

361
00:35:08,000 --> 00:35:13,000
Precies, daarmee overhandig ik het aan jou, Ziko, en ik kijk uit naar je presentatie.

362
00:35:13,000 --> 00:35:15,000
Ja bedankt.

363
00:35:15,000 --> 00:35:24,000
Dus vanuit het perspectief van een vreemde, ja, beste vrienden van kennis, hebben we gehoord dat de afbeeldingen op Wikipedia een artikel versterken.

364
00:35:24,000 --> 00:35:27,000
En nu foto 2, alstublieft.

365
00:35:27,000 --> 00:35:32,000
Maar ja, we gebruiken afbeeldingen niet altijd op een betekenisvolle en passende manier.

366
00:35:32,000 --> 00:35:42,000
Je hebt lange artikelen, maar nauwelijks foto's, of een onvoldoende onderschrift, of een gebruik van een afbeelding waarbij iemand echt niet goed heeft nagedacht, zoals we zullen zien.

367
00:35:42,000 --> 00:35:52,000
Mijn onderwerp is dus dat beelden belangrijk zijn, maar niet altijd onschadelijk en helaas worden de discussies erover soms overschaduwd door een houding die te ver gaat.

368
00:35:52,000 --> 00:35:59,000
Een afbeelding op Wikimedia Commons, een Congolees dorp in een zogenaamde volkerenshow.

369
00:35:59,000 --> 00:36:04,000
In Europa werden mensen uit andere delen van de wereld soms als dieren tentoongesteld.

370
00:36:05,000 --> 00:36:08,000
Ja, de foto lijkt voor veel mensen waarschijnlijk onschuldig.

371
00:36:08,000 --> 00:36:12,000
Geen naaktheid, geen geweld, geen bloedvergieten.

372
00:36:12,000 --> 00:36:18,000
Maar als mensen worden gereduceerd tot hun etnische showwaarde, is dat dan werkelijk onschadelijk?

373
00:36:18,000 --> 00:36:22,000
En moet ik de afbeelding überhaupt gebruiken, en zo ja, hoe?

374
00:36:22,000 --> 00:36:29,000
Kort over mij. Ik heb onder andere geschiedenis gestudeerd, gewerkt in beeldarchieven en ik plaats afbeeldingen in Wikipedia-artikelen.

375
00:36:29,000 --> 00:36:33,000
En ik doe hetzelfde met de Klexikon, de Wikipedia voor kinderen.

376
00:36:33,000 --> 00:36:41,000
En het nadenken over een goede beeldkeuze leidde mij naar de literatuur, zoals een bijdrage van de heer Ian Ramjohn.

377
00:36:45,000 --> 00:36:49,000
Ian Ramjohn maakt zich zorgen over de manier waarop arme landen op Wikipedia worden afgeschilderd.

378
00:36:49,000 --> 00:36:51,000
En hij schrijft:

379
00:37:03,000 --> 00:37:09,000
Als de competities worden beoordeeld door de ogen van het mondiale noorden, wordt het effect vergroot.

380
00:37:09,000 --> 00:37:14,000
Niemand wil prijzen uitdelen voor dingen die ze regelmatig in hun eigen achtertuin kunnen zien.

381
00:37:14,000 --> 00:37:23,000
Maar zolang de ontwikkelingslanden op Wikipedia door deze lens worden geportretteerd, blijven ze exotisch.

382
00:37:23,000 --> 00:37:26,000
Maar ja, antwoordde Florence Devouard.

383
00:37:26,000 --> 00:37:35,000
Ze behoort tot de organisatie Wiki loves Africa en legde verontwaardigd uit dat deze competitie juist het alledaagse verwelkomt.

384
00:37:35,000 --> 00:37:39,000
En drie tot vier mensen uit het mondiale noorden nemen deel aan de organisatie.

385
00:37:39,000 --> 00:37:45,000
De rest komt allemaal uit het zuiden. En ook de meeste juryleden komen uit Afrika.

386
00:37:45,000 --> 00:37:50,000
Bedoelde Ian Ramjohn een andere competitie?

387
00:37:50,000 --> 00:37:54,000
Ja, dat is het waarschijnlijk, antwoordde Ian Ramjohn schaapachtig.

388
00:37:54,000 --> 00:37:59,000
Hij schreef het bericht twee jaar geleden en kan het zich niet meer herinneren.

389
00:37:59,000 --> 00:38:08,000
Welnu, voor Wiki loves Earth geldt ook, zegt Florence Devouard, dat de meeste nationale winnaars in Afrikaanse landen daar vandaan komen.

390
00:38:08,000 --> 00:38:16,000
En waarom zouden we de winnende foto’s exotisch moeten noemen? Je probeert overal de mooiste plekken van een land te laten zien.

391
00:38:16,000 --> 00:38:20,000
Oei! Wat ging er mis?

392
00:38:20,000 --> 00:38:25,000
Ten eerste vind ik het moreel twijfelachtig om iets over de competities te veronderstellen.

393
00:38:25,000 --> 00:38:31,000
En zomaar, automatisch, zonder dat je er goed naar hebt gekeken.

394
00:38:31,000 --> 00:38:38,000
Ten tweede is het contraproductief omdat degenen die op deze manier worden aangevallen dan kunnen denken: wat ik ook doe, iedereen zal maar klagen.

395
00:38:38,000 --> 00:38:42,000
Waarom zou ik pleiten voor een meer mondiale Wikipedia?

396
00:38:42,000 --> 00:38:47,000
Ten derde is de houding problematisch voor het discours en nog een voorbeeld.

397
00:38:47,000 --> 00:38:51,000
Ian Ramjohn klaagt ook over een Wikipedia-discussie.

398
00:38:51,000 --> 00:38:56,000
Dus wat zou u moeten zien als u naar het woord Java zoekt?

399
00:38:56,000 --> 00:39:01,000
Het artikel over het Indonesische eiland of Java, de programmeertaal?

400
00:39:01,000 --> 00:39:08,000
En dan merkt hij op dat de verstandige mensen de overhand hebben gehad, zodat het lemma Java nog steeds het eiland is,

401
00:39:08,000 --> 00:39:13,000
maar dat het überhaupt ter sprake is gekomen getuigt van een fundamentele zwakte.

402
00:39:13,000 --> 00:39:21,000
Het is absurd: blanke mensen uit het mondiale noorden marginaliseren 150 miljoen inwoners van Java

403
00:39:21,000 --> 00:39:25,000
door hun verdiensten af ​​te wegen tegen een programmeertaal.

404
00:39:25,000 --> 00:39:31,000
En eerst dacht ik: ja, maar de discussie was 15 jaar geleden.

405
00:39:31,000 --> 00:39:35,000
En ongeveer tien mensen namen deel aan de discussie en het eiland had de overhand.

406
00:39:36,000 --> 00:39:43,000
En toen zag ik dat Wikipedia, in het Engels, de Java-kwestie meerdere keren had besproken.

407
00:39:43,000 --> 00:39:50,000
Met aan beide kanten verstandige argumenten. Zo wordt het artikel over de programmeertaal

408
00:39:50,000 --> 00:39:55,000
aanzienlijk vaker bekeken dan dat over het eiland.

409
00:39:55,000 --> 00:40:02,000
Blijkbaar willen sommige mensen niet eens over dingen praten omdat ze al een vaste mening hebben.

410
00:40:02,000 --> 00:40:07,000
En iedereen die er nog een heeft, vertegenwoordigt een fundamentele zwakte.

411
00:40:07,000 --> 00:40:10,000
En hij wordt niet langer gezien als een individu met een eigen mening,

412
00:40:10,000 --> 00:40:14,000
maar alleen als een vertegenwoordiger van zijn huidskleur of zijn afkomst.

413
00:40:14,000 --> 00:40:19,000
Ook deze romanschrijver is niet bevorderlijk voor het discours.

414
00:40:19,000 --> 00:40:25,000
Ze klaagde op Twitter dat ‘een man’ het artikel over haar had verwijderd.

415
00:40:25,000 --> 00:40:30,000
Ja, en je kunt hier zien hoe het Twitter-publiek haar steunde.

416
00:40:32,000 --> 00:40:38,000
En wat denkt de organisatie “Whose Knowledge?”?

417
00:40:38,000 --> 00:40:44,000
Het wil ondervertegenwoordigde groepen en minderheden zichtbaarder maken. Prima.

418
00:40:44,000 --> 00:40:47,000
Citaat uit de video van Adele Vrana.

419
00:40:47,000 --> 00:40:51,000
'De meeste mensen die Wikipedia schrijven zijn nog steeds blanke mannen.'

420
00:40:51,000 --> 00:40:58,000
Siko Bouterse: 'En aangezien wie je bent van invloed is op wat je creëert,

421
00:40:58,000 --> 00:41:02,000
worden deze hiaten ook weerspiegeld in de inhoud van Wikipedia.

422
00:41:02,000 --> 00:41:06,000
Zo is er voor elke aflevering van The Simpsons een Wikipedia-artikel.

423
00:41:06,000 --> 00:41:08,000
Militaire geschiedenis ook behoorlijk goed.

424
00:41:08,000 --> 00:41:12,000
Ook de berichtgeving over vrouwelijke pornosterren is prima.'

425
00:41:12,000 --> 00:41:19,000
Vrana: 'Ja, maar er ontbreken nog steeds talloze biografieën van Braziliaanse vrouwelijke wetenschappers

426
00:41:19,000 --> 00:41:24,000
of activisten.' - Ja, vraag ik mij af, wat is het nut van zo'n polemiek

427
00:41:24,000 --> 00:41:29,000
die in een giechelige stemming wordt gepresenteerd? Wil je een bevolkingsgroep in diskrediet brengen

428
00:41:29,000 --> 00:41:35,000
door te zeggen dat zij voortdurend aan seks denken? We kennen hiervan historische voorbeelden.

429
00:41:35,000 --> 00:41:42,000
Zeker, ze willen zeggen: wij tegen zij. Maar doet dit recht aan de individuele Wikipedia-auteur?

430
00:41:42,000 --> 00:41:47,000
Iemand die nog nooit een artikel over pornosterren heeft geschreven?

431
00:41:47,000 --> 00:41:52,000
En trouwens, ik heb ooit naar Wikipedia-categorieën gekeken en het resultaat is dat er

432
00:41:52,000 --> 00:41:59,000
23.000 artikelen voor wetenschappers zijn en 512 voor pornoactrices.

433
00:41:59,000 --> 00:42:07,000
Is het artikel van Ian Ramjohn dus pure polemiek voor de prullenbak?

434
00:42:07,000 --> 00:42:11,000
Nee, het is legitiem om vragen over exotisme te stellen.

435
00:42:11,000 --> 00:42:17,000
Dus of foto's opzettelijk het andere, het vreemde laten zien.

436
00:42:17,000 --> 00:42:20,000
Want een foto maken is altijd een inspanning.

437
00:42:20,000 --> 00:42:23,000
Natuurlijk is dit tegenwoordig veel gemakkelijker dan 100 jaar geleden.

438
00:42:23,000 --> 00:42:27,000
Maar natuurlijk heb ik de neiging om mijn mobiele telefoon tevoorschijn te halen voor het ongewone.

439
00:42:27,000 --> 00:42:33,000
Bijvoorbeeld als er verse sneeuw in de tuin is gevallen en niet als de sneeuw weer aan het smelten is.

440
00:42:33,000 --> 00:42:42,000
En op Wikipedia laat ik in een artikel over een dorp een bijzonder gebouw zien, geen gewoon gebouw.

441
00:42:43,000 --> 00:42:47,000
Een afbeelding uit het artikel over Ghana.

442
00:42:47,000 --> 00:42:50,000
De man werkt op een traditioneel weefgetouw.

443
00:42:50,000 --> 00:42:52,000
Is dat nu erg?

444
00:42:52,000 --> 00:42:56,000
Wil je liever iemand laten zien die aan een moderne machine werkt?

445
00:42:56,000 --> 00:43:01,000
Wat is een typische maaltijd in Nederland? De beroemde haring?

446
00:43:01,000 --> 00:43:05,000
Misschien. McDonald's daarentegen is misschien niet typisch voor het land,

447
00:43:05,000 --> 00:43:10,000
maar is veel representatiever voor wat er werkelijk wordt gegeten.

448
00:43:11,000 --> 00:43:18,000
Het is zeker niet onbelangrijk wie naar een foto kijkt en welke voorkennis hij heeft om een ​​foto te classificeren.

449
00:43:18,000 --> 00:43:21,000
Traditionele cultuur bijvoorbeeld.

450
00:43:21,000 --> 00:43:27,000
Velen van ons hier zijn al eerder in Oostenrijk geweest, dus de aanwezigen [op WikiCon] hebben dat zeker gedaan.

451
00:43:27,000 --> 00:43:32,000
En je weet dat Oostenrijkers niet allemaal zo rondlopen.

452
00:43:32,000 --> 00:43:36,000
Maar hoe zit het met de foto uit Kenia? Wat zie ik daar?

453
00:43:36,000 --> 00:43:40,000
Het dagelijks leven, traditie, re-enactment?

454
00:43:40,000 --> 00:43:44,000
Re-enactment is dus een traditie die is doorbroken.

455
00:43:44,000 --> 00:43:48,000
Nou, ik weet niet veel over Kenia en mijn lezers misschien ook niet.

456
00:43:48,000 --> 00:43:53,000
En daarom is het zo belangrijk dat we goede beelduitleg hebben op Commons.

457
00:43:53,000 --> 00:43:57,000
Ja, en helaas was de beschrijving van de afbeelding op Commons erg kort.

458
00:43:57,000 --> 00:44:02,000
Misschien omdat het voor de fotograaf wel duidelijk was wat er was.

459
00:44:02,000 --> 00:44:07,000
Strikt genomen zou je tegen jezelf moeten zeggen: als ik niet precies begrijp wat ik zie,

460
00:44:07,000 --> 00:44:11,000
dan zou ik het beeld eigenlijk niet moeten gebruiken. Jammer.

461
00:44:11,000 --> 00:44:17,000
Nou, dat is nu één afbeelding. Maar wat ik nog belangrijker vind, is de totaalindruk die ontstaat.

462
00:44:17,000 --> 00:44:21,000
In een artikel over een land zie je vaak dit soort afbeeldingen.

463
00:44:21,000 --> 00:44:23,000
En vooral als het om arme landen gaat.

464
00:44:23,000 --> 00:44:29,000
Er wordt koffie geplant, grondstoffen worden gewonnen en je ziet prachtige zandstranden.

465
00:44:29,000 --> 00:44:35,000
Oké, dat is er. En export en toerisme zijn echt belangrijke sectoren van de economie.

466
00:44:35,000 --> 00:44:38,000
Waarom zou je dat niet laten zien?

467
00:44:38,000 --> 00:44:42,000
Ik ben bang dat dat een bepaalde indruk wekt.

468
00:44:42,000 --> 00:44:48,000
Het hele land lijkt alleen voor ons, mensen in de rijke landen, te bestaan.

469
00:44:48,000 --> 00:44:54,000
Daar gaan wij op vakantie en daar komen voor ons de mooie producten vandaan.

470
00:44:55,000 --> 00:44:58,000
Dus met de Klexikon probeerde ik een dergelijke indruk te vermijden.

471
00:44:58,000 --> 00:45:03,000
Hier is het artikel over Barbados. Prachtige stranden, geweldig.

472
00:45:03,000 --> 00:45:09,000
Maar toen voegde ik er ook een viering van de Onafhankelijkheidsdag of het parlementsgebouw aan toe.

473
00:45:12,000 --> 00:45:16,000
Waar komen de afbeeldingen die we op Wikimedia Commons vinden eigenlijk vandaan?

474
00:45:16,000 --> 00:45:21,000
Het maakt niet uit of de foto's een rijk land of een arm land tonen.

475
00:45:21,000 --> 00:45:26,000
De fotograaf is doorgaans een man uit het rijke noorden. Omgekeerd is dit veel zeldzamer.

476
00:45:26,000 --> 00:45:31,000
Dat vind ik jammer en ik denk dat het goed zou zijn als mensen uit arme landen aangemoedigd zouden worden

477
00:45:31,000 --> 00:45:35,000
om in rijke landen foto’s te maken.

478
00:45:35,000 --> 00:45:39,000
Maar laten we over twee punten heel duidelijk zijn.

479
00:45:39,000 --> 00:45:44,000
Ten eerste wat de fotograaf betreft en ten tweede wat het onderwerp betreft.

480
00:45:45,000 --> 00:45:49,000
Dit is Diego Delso uit Spanje.

481
00:45:49,000 --> 00:45:54,000
Hij heeft in veel landen talloze foto's van hoge kwaliteit gemaakt en geüpload.

482
00:45:54,000 --> 00:46:00,000
Ha, een rijke, blanke, bevoorrechte man uit het mondiale noorden.

483
00:46:00,000 --> 00:46:08,000
Zijn camerablik reproduceert koloniale stereotypen en zo manipuleert hij de domme Wikipedia-lezers.

484
00:46:08,000 --> 00:46:10,000
Is dat zo?

485
00:46:11,000 --> 00:46:15,000
Nee, Diego Delso is niet het probleem.

486
00:46:15,000 --> 00:46:19,000
Hij doet alles op vrijwillige basis en zou zichzelf de moeite met Commons kunnen besparen.

487
00:46:19,000 --> 00:46:25,000
Zijn foto’s zijn geen probleem, ze maken deel uit van de oplossing. Ze maken het illustreren eenvoudiger.

488
00:46:25,000 --> 00:46:28,000
Wat zou het alternatief zijn?

489
00:46:28,000 --> 00:46:32,000
Op Commons zijn dit vaak afbeeldingen van de nationale overheid,

490
00:46:32,000 --> 00:46:36,000
de Amerikaanse marine of de Russische ambassade.

491
00:46:36,000 --> 00:46:40,000
Ik wil niet beweren dat dergelijke foto's automatisch onaanvaardbaar zijn,

492
00:46:40,000 --> 00:46:45,000
maar juist zij zijn gemaakt met een specifieke bedoeling.

493
00:46:45,000 --> 00:46:50,000
Dat is precies waarom ik zo'n grote fan ben van Wiki loves Africa.

494
00:46:50,000 --> 00:46:54,000
Met de vele beelden van de afgelopen jaren hebben we

495
00:46:54,000 --> 00:46:57,000
als mondiale beweging echt een grote stap voorwaarts gezet.

496
00:46:57,000 --> 00:47:02,000
En de meeste foto’s zijn afkomstig van mensen uit de betreffende landen.

497
00:47:02,000 --> 00:47:07,000
Wat de inhoud betreft, laten we duidelijk zijn over het volgende.

498
00:47:07,000 --> 00:47:12,000
Als historicus ben ik me ervan bewust dat je je moet afvragen

499
00:47:12,000 --> 00:47:17,000
wie een foto heeft gemaakt, waarom, wat de culturele en sociale context is, enz.

500
00:47:17,000 --> 00:47:19,000
Ja.

501
00:47:19,000 --> 00:47:28,000
Maar je moet ook heel duidelijk zeggen dat dit gewoon een plaatje van een molen is.

502
00:47:28,000 --> 00:47:32,000
Maakt het eigenlijk uit wie de foto heeft gemaakt?

503
00:47:32,000 --> 00:47:36,000
Is hij een inwoner van de stad of is hij op doorreis?

504
00:47:36,000 --> 00:47:39,000
Is de foto gemaakt door een vrouw of een man?

505
00:47:39,000 --> 00:47:43,000
Zou het er echt in elk geval heel anders uitzien?

506
00:47:43,000 --> 00:47:46,000
Kritische vragen kunnen belangrijk zijn, maar je kunt betwijfelen

507
00:47:46,000 --> 00:47:54,000
of iemands achtergrond altijd en overal uiterst relevant is.

508
00:47:54,000 --> 00:48:01,000
Hier zien we Wikipedia in het Nederlands, artikel Soedan, vrouwenbesnijdenis.

509
00:48:01,000 --> 00:48:04,000
Ja, wat is hier het echte probleem?

510
00:48:04,000 --> 00:48:08,000
We vragen ons natuurlijk af: heeft de gefotografeerde persoon toestemming gegeven

511
00:48:08,000 --> 00:48:10,000
voor het uploaden van de afbeelding naar Commons?

512
00:48:10,000 --> 00:48:15,000
En het allerbelangrijkste: zou ze eigenlijk graag zien dat dit beeld gebruikt wordt?

513
00:48:15,000 --> 00:48:21,000
Een wreed onderwerp dus waarbij ze vrolijk in de camera kijkt?

514
00:48:21,000 --> 00:48:27,000
Dit gaat over persoonlijke rechten en dit gebruik zou overal ter wereld een probleem zijn.

515
00:48:27,000 --> 00:48:31,000
Heeft dit iets te maken met arme en rijke landen?

516
00:48:33,000 --> 00:48:35,000
Nou, ik geef toe, misschien wel.

517
00:48:35,000 --> 00:48:40,000
Het zou kunnen dat sommige fotografen uit rijke landen

518
00:48:40,000 --> 00:48:43,000
de persoonlijke rechten in eigen land niet durven

519
00:48:43,000 --> 00:48:47,000
te schenden. Omdat een gefotografeerde met de advocaat zou kunnen komen.

520
00:48:47,000 --> 00:48:51,000
En als de getroffenen in het mondiale zuiden wonen, ben je misschien wat lakser

521
00:48:51,000 --> 00:48:54,000
omdat ze zich nauwelijks een advocaat kunnen veroorloven.

522
00:48:54,000 --> 00:48:58,000
Ik benadruk dat dit slechts een hypothese van mij is, ik wil niets veronderstellen,

523
00:48:58,000 --> 00:49:02,000
maar hoe dan ook, het probleem van persoonlijke rechten,

524
00:49:02,000 --> 00:49:06,000
dat wil zeggen straatfotografie, en het hele probleem,

525
00:49:06,000 --> 00:49:09,000
het probleem van persoonlijke rechten is een algemeen probleem,

526
00:49:09,000 --> 00:49:15,000
maar het zou kunnen dat daar bovenop het probleem van arm en rijk is.

527
00:49:16,000 --> 00:49:21,000
De Wikimedia-beweging ziet zichzelf als een educatieve beweging.

528
00:49:21,000 --> 00:49:23,000
Laten we hiervoor het woord Bildung gebruiken.

529
00:49:23,000 --> 00:49:28,000
Het doel van Bildung is om mensen te helpen om zichzelf, maar ook hun omgeving en uiteraard hun medemensen

530
00:49:28,000 --> 00:49:31,000
beter te begrijpen .

531
00:49:31,000 --> 00:49:34,000
Zelfrealisatie in sociale verantwoordelijkheid.

532
00:49:34,000 --> 00:49:38,000
En dat past goed bij het traditionele ideaal van de encyclopedie.

533
00:49:38,000 --> 00:49:41,000
Het verzamelt niet alleen maar stukjes feiten,

534
00:49:41,000 --> 00:49:45,000
maar eerder kennis die de lezer helpt zich te oriënteren in zijn wereld.

535
00:49:45,000 --> 00:49:51,000
Ja, en we zien vaak een spanning.

536
00:49:51,000 --> 00:49:56,000
Ten eerste zijn we allemaal mensen met universele mensenrechten.

537
00:49:56,000 --> 00:50:00,000
Ten tweede kunnen mensen zien

538
00:50:00,000 --> 00:50:03,000
of gezien worden als leden van groepen, dat wil zeggen collectieven.

539
00:50:03,000 --> 00:50:07,000
En ten derde willen we het individu zien, het individu.

540
00:50:08,000 --> 00:50:11,000
En

541
00:50:11,000 --> 00:50:13,000
over hoe een goede balans tussen deze gebieden eruit ziet, lopen de meningen uiteen.

542
00:50:13,000 --> 00:50:17,000
En de mening van een persoon hangt onder meer af

543
00:50:17,000 --> 00:50:22,000
van zijn persoonlijke situatie of de mondiale status van zijn groep.

544
00:50:24,000 --> 00:50:28,000
En deze spanning, nou ja, dat zien we ook in de Wikimedia-beweging.

545
00:50:28,000 --> 00:50:30,000
En vandaar mijn scripties.

546
00:50:30,000 --> 00:50:34,000
Zoals we hebben gezien valt er nog veel te verbeteren op Wikimedia Commons.

547
00:50:34,000 --> 00:50:36,000
Trefwoord open brief.

548
00:50:36,000 --> 00:50:38,000
En op Wikipedia.

549
00:50:38,000 --> 00:50:44,000
En ja, waar iemand vandaan komt en tot welke collectieven hij of zij behoort, ja, dat is belangrijk.

550
00:50:44,000 --> 00:50:48,000
En het kan invloed hebben op de manier waarop hij fotografeert.

551
00:50:48,000 --> 00:50:52,000
Maar dat betekent niet dat een dergelijke invloed automatisch altijd bestaat.

552
00:50:52,000 --> 00:50:55,000
Wie enkel aandacht besteedt aan iemands achtergrond

553
00:50:55,000 --> 00:51:00,000
en diens meningen of foto's dienovereenkomstig beoordeelt of veroordeelt,

554
00:51:00,000 --> 00:51:03,000
argumenteert ad hominem.

555
00:51:03,000 --> 00:51:08,000
Maar een individu heeft het recht om als zodanig gezien te worden.

556
00:51:08,000 --> 00:51:11,000
En ja, als mensen opkomen voor een collectief, of

557
00:51:11,000 --> 00:51:15,000
het nu vrouwen zijn of mensen in arme landen, dan is dat goed.

558
00:51:15,000 --> 00:51:18,000
Ze kunnen echter hun doel overschrijden

559
00:51:18,000 --> 00:51:21,000
door andere collectieven te vernederen.

560
00:51:21,000 --> 00:51:25,000
En dat zou betekenen dat het kind met het badwater wordt weggegooid.

561
00:51:25,000 --> 00:51:27,000
Bedankt.

562
00:51:34,000 --> 00:51:39,000
Ja, heel erg bedankt, beste Ziko, voor de spannende presentatie.

563
00:51:39,000 --> 00:51:42,000
Precies, nu zijn we allebei weer in de zaal te zien.

564
00:51:42,000 --> 00:51:47,000
En in mijn reactie op uw presentatie wil ik graag

565
00:51:47,000 --> 00:51:51,000
ingaan op uw stellingen, die u zojuist nog eens heeft laten zien.

566
00:51:51,000 --> 00:51:56,000
De eerste was: ja, de Wikimedia-beweging moet beter omgaan met afbeeldingen.

567
00:51:56,000 --> 00:51:58,000
Daar ben ik het absoluut mee eens.

568
00:51:58,000 --> 00:52:01,000
Ik denk dat we bijna met één stem spreken.

569
00:52:01,000 --> 00:52:05,000
En daarom wil ik niet al te kritisch zijn op dit proefschrift,

570
00:52:05,000 --> 00:52:08,000
maar het juist nog meer ondersteunen.

571
00:52:08,000 --> 00:52:12,000
Ik denk dat wat je nu heel goed hebt laten zien met je lezing, is

572
00:52:12,000 --> 00:52:19,000
dat de illustratie van Wikipedia-artikelen veel aspecten omvat

573
00:52:19,000 --> 00:52:24,000
die betrekking hebben op de juridische dimensie rond afbeeldingen,

574
00:52:24,000 --> 00:52:29,000
op een ethisch-morele en ook op een culturele dimensie.

575
00:52:29,000 --> 00:52:34,000
Naar mijn mening moeten de illustraties van Wikipedia-artikelen

576
00:52:34,000 --> 00:52:37,000
veel nauwkeuriger worden onderzocht.

577
00:52:37,000 --> 00:52:42,000
En je hebt op een gegeven moment al gezegd

578
00:52:42,000 --> 00:52:47,000
dat de beeldinventarisaties op Wikimedia misschien tot op zekere hoogte het probleem zijn.

579
00:52:47,000 --> 00:52:53,000
Ik denk dat ik ooit heb gezegd dat de beelduitleg op Wikimedia relatief kort is.

580
00:52:53,000 --> 00:52:57,000
Vanuit mijn gezichtspunt is dit een zeer centraal punt dat ik hier nogmaals wil bespreken.

581
00:52:57,000 --> 00:53:01,000
Ik heb de indruk, maar laat de discussie mijn ongelijk bewijzen,

582
00:53:01,000 --> 00:53:09,000
dat Wikimedia veel meer context voor de afbeeldingen moet bieden.

583
00:53:09,000 --> 00:53:13,000
Er moeten dus echt nauwkeurigere afbeeldingsbeschrijvingen komen,

584
00:53:13,000 --> 00:53:18,000
zodat degenen die de afbeeldingen vervolgens gebruiken voor de Wikipedia-artikelen

585
00:53:18,000 --> 00:53:24,000
om ze van afbeeldingen te voorzien, nog nauwkeuriger kunnen zijn over

586
00:53:24,000 --> 00:53:26,000
waar de afbeelding eigenlijk vandaan komt.

587
00:53:26,000 --> 00:53:30,000
Ik denk dat dit bij veel onderwerpen een rol speelt, maar bij sommige niet.

588
00:53:30,000 --> 00:53:36,000
Dus natuurlijk, Ziko, ik denk ook dat het bij een molen zeker niet zo problematisch is

589
00:53:36,000 --> 00:53:37,000
wie de foto heeft gemaakt.

590
00:53:37,000 --> 00:53:42,000
Maar er zijn heel, heel veel onderwerpen, en je hebt daar ook goede voorbeelden van laten zien,

591
00:53:42,000 --> 00:53:47,000
waarbij je heel goed moet nadenken over welke beeldinventarisaties je opneemt.

592
00:53:47,000 --> 00:53:51,000
En naar mijn mening spelen beelden van het mondiale zuiden een grote rol.

593
00:53:52,000 --> 00:53:58,000
En je hebt hier ook een fotograaf genoemd die naar jouw mening

594
00:53:58,000 --> 00:54:01,000
een grote bijdrage heeft geleverd aan het illustreren van Wikipedia.

595
00:54:01,000 --> 00:54:06,000
In mijn ogen speelt het ook een rol dat je de fotografen niet zomaar hun gang laat gaan,

596
00:54:06,000 --> 00:54:08,000
ook al leveren ze al een mooie bijdrage,

597
00:54:08,000 --> 00:54:14,000
maar dat je fotografen misschien gaat trainen in

598
00:54:14,000 --> 00:54:18,000
wat ze met hun foto’s kunnen doen. foto's verstrekken.

599
00:54:18,000 --> 00:54:23,000
Namelijk niet deze naïeve opvatting dat ze simpelweg de wereld weergeven

600
00:54:23,000 --> 00:54:31,000
en Wikipedia illustreren en teksten opfleuren, maar dat ze

601
00:54:31,000 --> 00:54:38,000
met hun afbeeldingen ook bepaalde wereldbeelden van de wereld presenteren, vooral als het gaat om bepaalde onderwerpen

602
00:54:38,000 --> 00:54:41,000
zoals de discussie over het mondiale zuiden. .

603
00:54:41,000 --> 00:54:47,000
Ik denk dus dat een bepaald perspectief, een eurocentrisch perspectief,

604
00:54:47,000 --> 00:54:53,000
een rol speelt in Wikipedia. Mijn oproep is dus dat er zeker

605
00:54:53,000 --> 00:54:59,000
een discussie over beeldinventarisaties op Wikipedia moet blijven bestaan, veel intensiever dan voorheen.

606
00:54:59,000 --> 00:55:05,000
Ontwikkel ook een soort raster of richtlijn over welke aspecten een rol spelen.

607
00:55:05,000 --> 00:55:10,000
Zoals ik al zei, denk ik dat de culturele achtergrond van een fotograaf

608
00:55:10,000 --> 00:55:16,000
een grote rol speelt. Je moet ook de juridische aspecten uitleggen,

609
00:55:16,000 --> 00:55:21,000
zoals je zei of liet zien, de foto van een vrouw die er misschien helemaal niet over geïnformeerd is,

610
00:55:21,000 --> 00:55:26,000
dat het nu in de context van straatfotografie ineens op Wikipedia terecht komt.

611
00:55:26,000 --> 00:55:34,000
Naar mijn mening zou dit alles beschikbaar moeten worden gesteld aan

612
00:55:34,000 --> 00:55:41,000
de vele fotografen die misschien professionele, semi-professionele of zelfs privéfoto's maken, om

613
00:55:41,000 --> 00:55:46,000
de kwaliteit van de beeldinventarisaties op Wikimedia en dus ook op Wikipedia te beïnvloeden.

614
00:55:46,000 --> 00:55:51,000
Dus dat zou mijn grote oproep zijn, nu ook na het luisteren naar je presentatie,

615
00:55:51,000 --> 00:55:58,000
meer discussies over de verschillende dimensies, aspecten van beelden die relevant zijn, zoals ik al zei juridisch,

616
00:55:58,000 --> 00:56:04,000
ethisch, moreel, cultureel en zelfs meer training. Ik denk dat er mensen zullen zijn die

617
00:56:04,000 --> 00:56:12,000
mensen kunnen trainen in gevoelige onderwerpen over het mondiale zuiden of over groepen die fundamenteel ondervertegenwoordigd zijn op Wikipedia,

618
00:56:12,000 --> 00:56:20,000
zoals vrouwen, over wat belangrijke aspecten zijn bij het produceren van nieuwe afbeeldingen.

619
00:56:20,000 --> 00:56:28,000
En dan ook, zoals ik al zei, het aspect dat, naar mijn mening, veel afbeeldingen op Wikimedia gedecontextualiseerd zijn

620
00:56:29,000 --> 00:56:35,000
en, zoals ik eerder in mijn lezing zei, een groot betekenispotentieel hebben

621
00:56:35,000 --> 00:56:41,000
en, naar mijn mening, gedeeltelijk geïntegreerd zijn in Wikipedia op een disfunctionele manier.

622
00:56:41,000 --> 00:56:46,000
Dit moet indien mogelijk worden vermeden, om hier het bewustzijn te creëren, zoals ik al zei,

623
00:56:46,000 --> 00:56:51,000
dat beelden niet alleen de boel verlichten, maar ook een beslissende invloed hebben op

624
00:56:51,000 --> 00:56:57,000
hoe de teksten worden waargenomen en hoe betekenis wordt gereconstrueerd, anders dan tikken.

625
00:56:57,000 --> 00:57:01,000
Precies, dus ik geef het je Ziko terug als je wilt.

626
00:57:01,000 --> 00:57:07,000
Ja, heel erg bedankt voor deze classificatie, het is echt heel belangrijk.

627
00:57:07,000 --> 00:57:12,000
Ik dacht voor het lexicon dat het geschikt moest zijn voor kinderen

628
00:57:12,000 --> 00:57:18,000
en toen bedacht ik criteria, zoals ik ga naar Wikimedia Commons

629
00:57:18,000 --> 00:57:24,000
en probeer dan goede foto's te kiezen en ik wil er een langer artikel over maken voor mijn YouTube-kanaal.

630
00:57:24,000 --> 00:57:28,000
Je merkt bij Wikimedia Commons dat er sprake is van een soort automatische vooringenomenheid,

631
00:57:28,000 --> 00:57:33,000
dus als ik een foto van een dokter zoek, is het meestal een man met een lichte huidskleur

632
00:57:33,000 --> 00:57:38,000
en moet je extra tijd investeren als je wat diversiteit wilt hebben .

633
00:57:38,000 --> 00:57:43,000
Mijn sleutelwoord hiervoor is eigenlijk de kwaliteit van de encyclopedie.

634
00:57:43,000 --> 00:57:50,000
Er zijn waked en anti-woke en dat soort discussies, ik kan er niet zoveel mee.

635
00:57:50,000 --> 00:57:56,000
Ik wil een goede kwaliteit maken, een kwalitatieve encyclopedie en als ik nu een artikel heb

636
00:57:56,000 --> 00:58:04,000
over neuzen, ogen, armen, voeten, waar je alleen maar mensen met een lichte huidskleur ziet, dan zou de encyclopedie niet van hoge kwaliteit zijn.

637
00:58:04,000 --> 00:58:13,000
Dat is ongeveer mijn aanpak en het is echt niet eenvoudig om voeten te vinden op basis van huidskleur.

638
00:58:13,000 --> 00:58:18,000
Dat is echt ongelooflijk en ik weet niet of het aan de indexering ligt of aan andere zaken.

639
00:58:18,000 --> 00:58:22,000
We hebben zoveel problemen bij Wikimedia Commons over hoe we het kunnen verbeteren.

640
00:58:22,000 --> 00:58:27,000
Er is sprake van een soort automatische vooringenomenheid en als ik bijvoorbeeld in Schoorsteenvegen

641
00:58:27,000 --> 00:58:33,000
een mooie foto tegenkom van een vrouw die momenteel schoorsteenveger leert,

642
00:58:33,000 --> 00:58:39,000
dan neem ik dat liever, zelfs als er misschien andere betere zijn. foto's van mannen,

643
00:58:39,000 --> 00:58:44,000
maar dan neem ik die en dan weet ik dat ik in andere artikelen de luxe niet heb,

644
00:58:44,000 --> 00:58:47,000
zoveel keuze heb ik niet, maar zo probeer ik dat tegen te gaan

645
00:58:47,000 --> 00:58:54,000
en wat voor gedachten je hebt in je hoofd hebt, dat wil zeggen: ja, ja, en het kost gewoon ontzettend veel tijd.

646
00:58:54,000 --> 00:59:00,000
Als ik op dat soort dingen let, kost de illustratie misschien twee of drie keer zoveel tijd als normaal,

647
00:59:00,000 --> 00:59:05,000
maar op de een of andere manier heb ik nog steeds de trots dat ik tegen mezelf zeg: geweldig nu, het is het waard,

648
00:59:05,000 --> 00:59:10,000
ook al ziet het resultaat er nu goed uit en ziet er niet geweldig uit.

649
00:59:11,000 --> 00:59:18,000
Maak een foto, upload hem, indexeer hem, zoek hem, selecteer hem, ondertitel hem, beeld-beeldrelatie, beeld-tekstrelatie

650
00:59:18,000 --> 00:59:23,000
en wat er in het hoofd van de lezer zit, het exotische is op de een of andere manier ook wat de lezers dan in hun hoofd hebben,

651
00:59:23,000 --> 00:59:28,000
zoals ze classificeren wel, trefwoord Oostenrijk en Kenia, waar we dan bij de Oostenrijkers vanuit gaan,

652
00:59:28,000 --> 00:59:33,000
tja, die lopen niet altijd in klederdracht rond, dat is wel een dingetje.

653
00:59:33,000 --> 00:59:37,000
Ik heb soms de indruk, ik weet het niet, dat

654
00:59:37,000 --> 00:59:43,000
de auteurs bij uitstekende artikelen meestal aandacht hebben besteed aan goede illustraties, maar verder heb ik de indruk dat

655
00:59:43,000 --> 00:59:48,000
de illustraties misschien niet zo prestigieus zijn of dat er op de een of andere manier het initiatief is,

656
00:59:48,000 --> 00:59:57,000
Wikipedia, WPWP, dat de Wikipedia-artikelen geïllustreerd moeten worden, dat komt niet helemaal uit de lucht vallen.

657
00:59:57,000 --> 01:00:03,000
Nog één ding: je hebt de juridische en ethisch-morele aspecten beschreven, ja als het om juridische zaken gaat,

658
01:00:03,000 --> 01:00:08,000
denk ik dat we daar heel goed in moeten zijn en veel Wikipedianen zijn zich daar al van bewust

659
01:00:08,000 --> 01:00:13,000
en ze weten dat veel van de foto's die we krijgen die zijn er eigenlijk, ze zouden eigenlijk niet op Wikimedia Commons moeten staan,

660
01:00:13,000 --> 01:00:18,000
dan laat je het altijd aan de volgende gebruikers over, zodat zij dan nadenken over persoonlijke rechten.

661
01:00:18,000 --> 01:00:22,000
Maar ja, als het om ethische en morele aspecten gaat, denk ik dat we moeten nadenken over een beeldcultuur,

662
01:00:22,000 --> 01:00:30,000
hoe willen we zijn als gemeenschap die met beelden omgaat en dan kunnen we Romeinser zijn dan de paus,

663
01:00:30,000 --> 01:00:38,000
dus onze ethische richtlijnen kunnen veel strenger zijn dan de wettelijke, waarom niet? Hartelijk dank.

664
01:00:42,000 --> 01:00:49,000
Bedankt Ziko, bedankt Eva. We hebben nu nog ruim een ​​half uur over voor de discussie,

665
01:00:49,000 --> 01:00:53,000
als er tenminste verzoeken zijn om hier in de zaal te spreken.

666
01:00:54,000 --> 01:01:00,000
Ah, oké, dus als je wilt, kun je naar voren komen, dan kunnen ze jou ook zien.

667
01:01:05,000 --> 01:01:11,000
Bedankt, ik vraag het op basis van anonimiteit. Ik wilde alleen een paar opmerkingen maken over de praktijk van het illustreren,

668
01:01:11,000 --> 01:01:16,000
omdat ik ook lange teksten schrijf en deze zo intensief mogelijk probeer te illustreren.

669
01:01:16,000 --> 01:01:21,000
En uitgaande van Ziko, van de foto die je liet zien, waar je drie foto's had,

670
01:01:21,000 --> 01:01:28,000
aardbeien in Ecuador, daarna de zwavelmijnen in Indonesië en dit strand in Jamaica, denk ik dat het was

671
01:01:28,000 --> 01:01:36,000
waar je zei dat het clichés of exotisme laat zien. Wat mij opviel aan alle foto's die je liet zien,

672
01:01:36,000 --> 01:01:43,000
is dat je nooit echt hebt beschreven welke bijschriften er eigenlijk onder stonden,

673
01:01:43,000 --> 01:01:49,000
waardoor je je afvraagt ​​of sommige dingen die op het eerste gezicht problematisch lijken,

674
01:01:49,000 --> 01:01:54,000
daadwerkelijk via het bijschrift kunnen worden weergegeven of dat dit ook is vastgelegd.

675
01:01:54,000 --> 01:02:00,000
En ten tweede is het niet alleen belangrijk dat een afbeelding rechtsboven in artikelen staat,

676
01:02:00,000 --> 01:02:11,000
maar ook dat afbeeldingen aan rubrieken worden toegewezen. En ik weet bijvoorbeeld ook waarom deze zwavelwinning in Indonesië als

677
01:02:11,000 --> 01:02:20,000
exotisch wordt beschouwd, maar als het gaat om de illustratie van het gedeelte over de Indonesische export,

678
01:02:20,000 --> 01:02:29,000
is dit beeld gewoon heel goed. Zoals ik al zei, en ik denk ook dat dit een opmerking voor de spreker is,

679
01:02:29,000 --> 01:02:37,000
is de positionering van het beeld in het artikel echt belangrijk, en bijvoorbeeld ook dat je de moed hebt,

680
01:02:37,000 --> 01:02:44,000
dat je dapper genoeg bent, om een artikel zonder inleidende afbeelding, als je geen geschikte inleidende afbeelding hebt,

681
01:02:44,000 --> 01:02:54,000
maar illustreer deze gewoon in de hoofdtekst van het artikel. Als laatste opmerking: hoewel we de voeten niet per kleurcategorie hebben,

682
01:02:54,000 --> 01:03:01,000
denk ik dat je nog steeds veel meer met fotogalerijen kunt werken dan doorgaans wordt gedaan.

683
01:03:01,000 --> 01:03:09,000
Mijn ervaring is dat als je

684
01:03:09,000 --> 01:03:15,000
een galerij maakt met vier foto's gewijd aan dergelijke onderwerpen over een onderwerp als indrukwekkende bergen, inclusief landbouw, rijstvelden, trappen, wat dan ook, dat een beetje verdacht wordt van

685
01:03:15,000 --> 01:03:23,000
exotisch te zijn. Ze nemen een beetje van deze indrukwekkendheid weg van elkaar,

686
01:03:23,000 --> 01:03:29,000
of neem afstand van dit exotisme, wat ik eigenlijk een heel goed effect vind, want dan zie je, oké,

687
01:03:29,000 --> 01:03:35,000
dat is opvallend, maar ook een beetje normaal, of laat drie foto's zien. Heb gewoon niet zo'n exotisme,

688
01:03:35,000 --> 01:03:44,000
terwijl er maar één foto is die het laat zien, en als je dan de moed hebt om te zeggen: ja, ik ga gewoon verder dan die ene foto,

689
01:03:44,000 --> 01:03:51,000
wat uiteraard ook vereist dat je op Commons redelijk in staat bent om zulke foto’s überhaupt te vinden,

690
01:03:51,000 --> 01:04:01,000
maar het is mogelijk, en daarom ben ik een beetje onzeker, Ziko, wat je aan het einde zei,

691
01:04:01,000 --> 01:04:10,000
dat de illustraties op Wikipedia zo langzaam vorderen, zou ook heel goed kunnen zijn, namelijk dat

692
01:04:10,000 --> 01:04:17,000
het beter is om geen foto te plaatsen daar zit dan een slecht beeld in, ook inhoudelijk gezien.

693
01:04:17,000 --> 01:04:21,000
Ik weet niet zeker hoe het er eigenlijk uitziet.

694
01:04:24,000 --> 01:04:33,000
Ja, hoe doen we dat, Eva? Mono-Ett, zullen we eerst gaan verzamelen? Misschien is dat beter, ja? Of moet ik erop reageren?

695
01:04:33,000 --> 01:04:41,000
Dus ik denk dat dat een heel gedifferentieerde verklaring zou zijn. Ik denk dat we er misschien meteen mee aan de slag moeten gaan, Ziko,

696
01:04:41,000 --> 01:04:47,000
en je mag gerust beginnen, want er waren een paar punten, anders zou het misschien te veel zijn.

697
01:04:47,000 --> 01:04:55,000
Ik heb prachtige foto's gevonden, punten. Ik wilde alleen maar zeggen, een misverstand over de koffie en de zwavel- en zandstranden,

698
01:04:55,000 --> 01:05:01,000
het ging voor mij niet zozeer om exotisme, en die indruk kan altijd ontstaan, maar het ging over

699
01:05:01,000 --> 01:05:07,000
Of nu de algemene indruk ontstaat dat dit land nu alleen maar zandstranden of grondstoffen te bieden heeft,

700
01:05:07,000 --> 01:05:17,000
dan zou ik graag meer foto's zien van het dagelijks leven, het straatleven, of heb ik ergens een vakbondsbijeenkomst in een verklarende woordenlijst.

701
01:05:17,000 --> 01:05:25,000
Er zitten mensen rond zo'n tafel bij de vakbond in Angola, denk ik, en ik zou je graag zoiets willen laten zien,

702
01:05:25,000 --> 01:05:32,000
of een parlementsgebouw en dan niet alleen de vakantie-indrukken. Ik vind galerijen geweldig. Ik heb de indruk dat

703
01:05:32,000 --> 01:05:40,000
er hier artikelen zijn zoals degene die ik in Ghana of Burundi heb bekeken, ze zijn in essentie rond 2009 geschreven,

704
01:05:40,000 --> 01:05:51,000
en gedurende die tijd hebben ze het ook in essentie geïllustreerd, en in de tussentijd is er zoveel goeds toegevoegd via Wiki houdt van Afrika en andere initiatieven,

705
01:05:51,000 --> 01:05:59,000
dus je kunt meer doen, maar die terughoudendheid – liever geen foto dan een ongepaste foto – vind ik eigenlijk heel verstandig.

706
01:06:00,000 --> 01:06:07,000
Ja, dan zou ik er misschien meteen in springen, dus ik denk dat het heel verstandig is om te zeggen dat het beter is om geen foto te hebben dan een foto die

707
01:06:07,000 --> 01:06:17,000
ongepast is of die zeker problematisch kan zijn. Maar als ik nu bijvoorbeeld vanuit het perspectief van mijn studenten kijk,

708
01:06:17,000 --> 01:06:27,000
die Wikipedia heel vaak gebruiken, zie ik natuurlijk ook dat je als Wikipedia-auteur misschien op de hoogte wilt blijven van andere platforms,

709
01:06:27,000 --> 01:06:36,000
die, zoals ik al zei, erg beeldrijk. Dus hier is de vraag, hoe positioneert Wikipedia zich ten opzichte van andere kennisbronnen op internet,

710
01:06:36,000 --> 01:06:45,000
en ik zou ook het volgende willen overwegen: ik denk ook dat het idee van de beeldgalerijen goed is, en ik moet ook in gedachten houden

711
01:06:45,000 --> 01:06:56,000
dat het belangrijk is om rekening te houden met de beeldconstellatie, dat beelden elkaar ook kunnen beïnvloeden in hun betekenis.

712
01:06:56,000 --> 01:07:07,000
Wat ik mij altijd afvraag is dat veel jongeren, maar natuurlijk ook in alle leeftijdsgroepen, Wikipedia nu via hun smartphone benaderen,

713
01:07:07,000 --> 01:07:16,000
wat betekent dat je bij het illustreren van artikelen wellicht ook rekening moet houden met hoe de beeldgalerijen op de website staan smartphone kan worden gezien.

714
01:07:16,000 --> 01:07:27,000
Ik denk dat veel Wikipedia-auteurs Wikipedia nog steeds bewerken via de pc, de laptop die ergens staat en de klassieke weergave hebben,

715
01:07:27,000 --> 01:07:35,000
maar de vraag is altijd hoe tekst-beeldrelaties en beeld-beeldconstellaties verschijnen via de smartphone,

716
01:07:35,000 --> 01:07:43,000
oftewel hier het specifieke internet gebruikers die een Wikipedia-artikel openen, kunnen een heel andere mening hebben

717
01:07:43,000 --> 01:07:56,000
waar jij als auteur geen rekening mee hebt gehouden. Je moet dus bedenken hoe de daadwerkelijke ontvangstsituatie is via de laptop of smartphone.

718
01:07:56,000 --> 01:08:06,000
En ik denk dat hier tot nu toe weinig onderzoek naar is gedaan, wat zeker een spannend punt is, ook gezien het feit dat de eindapparaten waartoe toegang wordt verkregen via Wikipedia zijn

719
01:08:07,000 --> 01:08:14,000
veranderd, en dat je als auteur hier misschien mee te maken krijgt anticipeert op wat de ontvangstsituatie is maar ik weet dat dat veel gevraagd is,

720
01:08:14,000 --> 01:08:24,000
vooral omdat veel auteurs op vrijwillige basis op Wikipedia werken, en het in aanmerking nemen van de meeste en zoveel aspecten natuurlijk veel vraagt.

721
01:08:24,000 --> 01:08:30,000
Dank u, ik denk dat we nu verder kunnen gaan met de volgende vraag. Mono-ett.

722
01:08:30,000 --> 01:08:34,000
Bedankt, Raimund hier. Ik weet niet eens of je ons hier in de hal ziet.

723
01:08:37,000 --> 01:08:38,000
Nee.

724
01:08:38,000 --> 01:08:39,000
Dan gaan we verder.

725
01:08:39,000 --> 01:08:48,000
Hallo, nu zie je mij. Ik zou graag wat context willen geven over het onderwerp Elisabeth Böhm.

726
01:08:48,000 --> 01:08:54,000
Ik was meteen getriggerd omdat mijn vrouw het artikel schreef.

727
01:08:54,000 --> 01:09:01,000
En zij en ik werken al heel, heel lang aan het onderwerp van de familie Böhm, dat wil zeggen de architectenfamilie Böhm.

728
01:09:01,000 --> 01:09:06,000
Ik weet dat het heel moeilijk voor haar was om het artikel te schrijven, omdat Elisabeth Böhm er

729
01:09:06,000 --> 01:09:11,000
heel, heel lang over deed... over het onderwerp van de familie Böhm, dat wil zeggen de architectenfamilie Böhm.

730
01:09:11,000 --> 01:09:17,000
Ik weet dat ze het heel moeilijk vond om het artikel te schrijven, want Elisabeth Böhm.

731
01:09:17,000 --> 01:09:23,000
Ja, we denken dat ze relevant is, maar zoals veel moeders was ze gewoon een moeder.

732
01:09:23,000 --> 01:09:33,000
Dat is gewoon hoe het is. Bedenk waarom er geen foto van haar in het artikel stond, geen enkele foto, waarop jij, Eva, kritiek had.

733
01:09:33,000 --> 01:09:38,000
Ik zie het gebrek ook, maar eigenlijk had ik beter geen foto kunnen hebben dan deze foto,

734
01:09:38,000 --> 01:09:43,280
de foto waar jij, Eva, kritiek op had. Ik zie het gebrek ook, maar er zou

735
01:09:43,280 --> 01:09:49,280
eigenlijk geen betere foto zijn geweest dan deze foto, want de foto is gemaakt in 2009

736
01:09:49,280 --> 01:09:53,960
van, ik weet het niet, ik wist het, ik heb net gekeken en ik ken de gebruiker niet

737
01:09:53,960 --> 01:10:00,600
. Dat is verschrikkelijk, dat is wazig, dat is klein. Op een bepaald moment

738
01:10:00,600 --> 01:10:09,720
in 2017 heeft mevrouw Böhm de man eruit geknipt en bijgesneden. Het doet pijn om de foto te zien.

739
01:10:09,720 --> 01:10:16,120
Dus dat is echt heel erg. Ze stierf in 2012 en we

740
01:10:16,120 --> 01:10:21,000
zagen de familie af en toe, maar meestal alleen Gottfried Böhm en broers.

741
01:10:21,000 --> 01:10:28,200
De vrouw kwam simpelweg niet meer opdagen, ook niet tussen 2009 en 2012.

742
01:10:28,200 --> 01:10:32,000
Nou ja, niet dat ik weet. Maakt een interessante film. Ik denk dat

743
01:10:32,000 --> 01:10:37,520
het een uur lang over de familie Böhm gaat. Dus even een klein beetje context. Over de tekst

744
01:10:37,520 --> 01:10:43,240
kan ik op dit moment nog niet veel zeggen. Mijn vrouw is er ook niet, ze is thuis. Maar ik denk dat

745
01:10:43,240 --> 01:10:49,160
ik haar eerder een paar screenshots van de dia's heb gestuurd. Kijk wat ze nu doet.

746
01:10:49,160 --> 01:10:56,800
Ja, omdat ik ook veel foto's maak, is het niet altijd gemakkelijk

747
01:10:56,800 --> 01:11:03,640
om het juiste te vinden, de juiste foto te maken en een beetje reclame te maken voor een

748
01:11:03,640 --> 01:11:08,440
SteePro-sessie. Ik weet niet of hij vandaag of morgen zal klagen over het feit

749
01:11:08,440 --> 01:11:14,080
dat er zoveel wordt gezeurd over kleine, lelijke foto's. Ik vind het ook een spannend onderwerp.

750
01:11:14,080 --> 01:11:16,280
Ja, zoveel daarvoor.

751
01:11:16,280 --> 01:11:23,920
Ja heel erg bedankt. Voor mij is dit natuurlijk ook een heel, heel spannende contextualisering

752
01:11:23,920 --> 01:11:29,440
van beelden. Dat had dus geen fundamentele kritiek op het artikel mogen zijn.

753
01:11:29,440 --> 01:11:35,080
Ik vind het geweldig dat een vrouw

754
01:11:35,080 --> 01:11:40,440
haar standpunt heeft behouden en een artikel over een vrouw op zich heeft genomen over een vrouw die misschien net aan de relevantiecriteria voldoet. Dat is dus

755
01:11:40,440 --> 01:11:46,440
ook een punt dat besproken wordt in veel initiatieven rond Wikipedia. Hoe

756
01:11:46,440 --> 01:11:53,240
krijgen we meer artikelen over vrouwen die historisch gezien ook familieopstellingen hadden

757
01:11:53,240 --> 01:11:58,280
waardoor ze niet

758
01:11:58,280 --> 01:12:02,600
aanwezig konden zijn in een architectenbureau of in professionele rollen? Dus om daarover na te denken, heb ik er

759
01:12:02,600 --> 01:12:07,880
al intensief over gesproken met Ziko. Geen fundamentele kritiek op het artikel dus,

760
01:12:07,880 --> 01:12:13,320
maar wel leuk dat er iets in staat. Maar er is nog wel wat ruimte voor verbetering

761
01:12:13,320 --> 01:12:20,240
om het artikel goed vorm te geven zodat het geen beet veroorzaakt. En dan is het nu een

762
01:12:20,240 --> 01:12:25,440
spannend punt om weer over beeldkwaliteit te praten. Ik zie dus dat er

763
01:12:25,440 --> 01:12:30,800
ook hier verschillende aspecten zijn. Dus aan de ene kant is er natuurlijk het technische aspect. Ik ben

764
01:12:30,800 --> 01:12:36,160
eigenlijk relatief open en openhartig. Ik heb er dus geen last van als een foto

765
01:12:36,160 --> 01:12:42,000
technisch gezien niet van goede kwaliteit is, maar ik heb eerder betoogd dat het misschien

766
01:12:42,000 --> 01:12:47,160
beter zou zijn om hem bij te snijden. Ik weet niet precies wat het betekent, maar ik vermoed dat het betekent dat je

767
01:12:47,160 --> 01:12:53,360
een persoon uit een groepsfoto moet verwijderen om die persoon in het midden te plaatsen. Precies,

768
01:12:53,360 --> 01:12:58,680
Zico gaf het met een gebaar aan. Vanuit mijn culturele taalkundige en

769
01:12:58,680 --> 01:13:03,360
beeldstudies perspectief denk ik dat dit een goede optie is

770
01:13:03,360 --> 01:13:08,480
om de beelden zo bij te snijden dat mensen in het centrum staan, zodat bepaalde constellaties van mensen

771
01:13:08,480 --> 01:13:14,440
niet ook een podium hoeven te bieden. En dan vooral constellaties van mensen die

772
01:13:14,440 --> 01:13:19,840
de mens op de voorgrond plaatsen, omdat die naar mijn mening op veel plekken al sterk aanwezig zijn.

773
01:13:19,840 --> 01:13:26,600
Precies, om het een beetje polemisch te zeggen. Dus zoals ik al zei, vanuit een

774
01:13:26,600 --> 01:13:30,600
technisch perspectief kan ik begrijpen dat er met de beeldkwaliteiten

775
01:13:30,600 --> 01:13:35,320
overwegingen kunnen zijn, maar vanuit het perspectief van culturele studies en beeldstudies

776
01:13:35,320 --> 01:13:42,680
denk ik absoluut dat het een goed proces is, goede digitale beeldpraktijk hier voor de persoon

777
01:13:42,680 --> 01:13:47,640
die wordt beschreven, om zo te zeggen, en het dienovereenkomstig bijsnijden van de afbeelding is mijn perspectief.

778
01:13:47,640 --> 01:13:52,600
Dat zou ook een spannend onderhandelingspunt zijn. En ik ben erg enthousiast

779
01:13:52,600 --> 01:13:55,640
over de sessie die ik zojuist noemde, die daar misschien ook over gaat. Misschien kun je

780
01:13:55,640 --> 01:14:00,920
dit cultuurwetenschappelijke perspectief ook in de sessie betrekken.

781
01:14:00,920 --> 01:14:06,480
We hebben nu nog één vraag van het publiek hier en dan nog een paar vragen uit de chat.

782
01:14:12,920 --> 01:14:21,000
Gebruiker Matthias B. uit Schwetzingen. Hallo Eva. U noemde het eerder

783
01:14:21,000 --> 01:14:29,600
om de vraag of bezorgdheid over het beter benoemen van afbeeldingen voor ondertitels te beschrijven.

784
01:14:29,600 --> 01:14:34,840
Dit heeft natuurlijk een heel groot probleem en dat is de massa aan bestanden die

785
01:14:34,840 --> 01:14:43,240
op Wikimedia Commons staan. Er zijn er nu tientallen miljoenen, dus niemand heeft er de tijd voor.

786
01:14:43,240 --> 01:14:50,680
Misschien moeten we dus beginnen met te zeggen dat afbeeldingen die op Wikipedia worden gebruikt,

787
01:14:50,680 --> 01:14:56,520
gedetailleerder moeten worden beschreven. Maar dit geldt ook voor de toegankelijkheid van de alternatieve

788
01:14:56,520 --> 01:15:04,400
namen. Het is een heel ander verhaal dat slechtzienden het beeld niet kunnen zien.

789
01:15:04,400 --> 01:15:11,720
Of beter gezegd, het is nog moeilijker te beoordelen. En nog een punt dat bij me opkwam:

790
01:15:11,720 --> 01:15:17,160
we hadden een paar jaar geleden een discussie, een zeer verhitte discussie op Wikipedia,

791
01:15:17,160 --> 01:15:23,440
over de illustratie van het artikel Panty's. Destijds werd het, als ik het goed heb, geïllustreerd

792
01:15:23,440 --> 01:15:28,320
met een foto van een advertentie van het Oostenrijkse bedrijf Palmers, dat bekend staat om zeer,

793
01:15:28,320 --> 01:15:36,000
zou ik zeggen, onthullende reclameborden, die volgens mij inmiddels enigszins uit het straatbeeld

794
01:15:36,000 --> 01:15:44,040
hier zijn verdwenen in Oostenrijk. En toen werden ze verwijderd, er kwamen andere foto's binnen, toen was er een vrouw met

795
01:15:44,040 --> 01:15:48,760
ondoorzichtige panty's, die werd vervolgens weer vervangen, daarna werd er een balletdanseres

796
01:15:48,760 --> 01:15:55,720
ingebracht, heen en weer en heen en weer. Ik moet eerlijk zijn over hoe de situatie nu is,

797
01:15:56,120 --> 01:15:59,760
maar het probleem is niet nieuw en is dus ergens al enkele jaren bekend.

798
01:16:03,240 --> 01:16:09,160
Ja, heel erg bedankt, Matthias B., voor alle geweldige tips. Dus ik zie natuurlijk

799
01:16:09,160 --> 01:16:15,280
dat dit een praktisch probleem is om afbeeldingen vervolgens goed te contextualiseren,

800
01:16:15,280 --> 01:16:19,360
vooral de tientallen miljoenen die al op Wikimedia Commons staan.

801
01:16:19,840 --> 01:16:24,080
Maar misschien is dat wel iets waar we met het oog op de toekomst rekening mee kunnen houden.

802
01:16:24,120 --> 01:16:31,320
Voor de afbeeldingen die nieuw worden toegevoegd, zijn er dus goede regels en criteria om in te stellen in welke context

803
01:16:31,320 --> 01:16:36,760
deze afbeeldingen worden geplaatst. Ik denk dat het ook zou kunnen helpen bij de specifieke illustratie

804
01:16:36,760 --> 01:16:41,760
als er hier een goede context was. U zou misschien tijd besparen bij het

805
01:16:41,760 --> 01:16:46,640
illustreren van een artikel als u betere toegang tot de afbeeldingen had.

806
01:16:47,120 --> 01:16:54,400
En zoals ik al zei, wat ik nu waarneem, vooral tegen de achtergrond van AI, is dat er een groot aantal

807
01:16:54,400 --> 01:16:59,640
afbeeldingen op Wikimedia Commons wordt geplaatst, vooral voor vrouwen, die

808
01:16:59,640 --> 01:17:05,280
helemaal niet goed gecontextualiseerd zijn en, naar mijn mening, ook in een project als Wikimedia Commons hebben ze niets te zoeken,

809
01:17:05,280 --> 01:17:11,960
omdat ze genderstereotypen op massale schaal reproduceren. En dat brengt me eigenlijk

810
01:17:11,960 --> 01:17:17,520
bij je tweede punt, Matthias B. Ik ken het geval van panty's eigenlijk.

811
01:17:17,520 --> 01:17:22,720
Natuurlijk moet ik een online encyclopedie van de 21e eeuw vragen of het

812
01:17:22,720 --> 01:17:28,640
echt gaat om het reproduceren van onthullende afbeeldingen uit advertenties in een Wikipedia-artikel.

813
01:17:28,640 --> 01:17:33,680
Ik bedoel, het is voor iedereen duidelijk dat reclame aandacht wil krijgen, dat het mogelijk is

814
01:17:33,680 --> 01:17:40,320
een product naar vrouwen te brengen en dat misschien ook bepaalde schoonheidsidealen

815
01:17:40,360 --> 01:17:45,120
aan bod komen. En ik weet dat er in dit geval ook een soort fetisjafbeeldingen waren

816
01:17:45,120 --> 01:17:51,600
die ook problematische afbeeldingen van vrouwen lieten zien die naar mijn mening

817
01:17:51,600 --> 01:17:57,360
helemaal geen online encyclopedische relevantie hadden. Dit is dus een punt dat

818
01:17:57,360 --> 01:18:04,680
echt de moeite waard is om te bespreken. Wat wil je echt laten zien in een online encyclopedie met dit soort onderwerpen en

819
01:18:04,680 --> 01:18:09,440
artikelen? Is het nodig, zoals ik al zei, om schoonheidsidealen of, nog erger,

820
01:18:09,600 --> 01:18:16,680
fetisjbeelden of beelden die als fetisjen kunnen worden gezien, te reproduceren en

821
01:18:16,680 --> 01:18:22,440
deze hier in een online encyclopedie op te nemen? Volgens mij hoort daar geen plaats voor te zijn. Daarom

822
01:18:22,440 --> 01:18:24,800
kan ik begrijpen of dit artikel dienovereenkomstig is aangepast.

823
01:18:29,080 --> 01:18:29,800
Ja bedankt.

824
01:18:29,800 --> 01:18:32,480
Ja, als ik iets kan toevoegen of ik neem het.

825
01:18:34,000 --> 01:18:36,920
Ook hebben wij vragen vanuit de chat en dan staat er hier nog iemand aan de voorkant.

826
01:18:37,480 --> 01:18:39,520
Dan kun je beter je vragen stellen dan ja.

827
01:18:46,520 --> 01:18:50,640
Beste Ziko, Ik ben de online engel van de sessie en we hadden geen vragen, alleen

828
01:18:50,640 --> 01:18:55,000
opmerkingen, maar ik gooi ze er toch maar in. Dus een reactie die

829
01:18:55,000 --> 01:19:00,640
weer over de foto van Elisabeth Böhm gaat en eigenlijk spijtig genoeg zegt dat de

830
01:19:01,120 --> 01:19:07,520
foto, die toch al zo slecht opgelost was, is bijgesneden. En dan twee opmerkingen die zo doordacht zijn, waarbij

831
01:19:07,520 --> 01:19:13,760
ze zich van illustraties meer richten op het grotere onderwerp: hoe haal je vrouwen uit de schaduw van hen

832
01:19:13,760 --> 01:19:18,560
Mannen in hun Wikipedia-artikelen en dit lijkt een beetje op het voorbeeld van Miliva Maric

833
01:19:18,560 --> 01:19:25,760
, de Servische natuurkundige en wiskundige, die velen kennen als de vrouw van Albert Einstein,

834
01:19:25,760 --> 01:19:31,560
de eerste vrouw van Albert Einstein. Dus de inwoners van Zürich

835
01:19:31,560 --> 01:19:36,720
dachten gewoon een beetje na, om het zo maar te zeggen. Ja, hier is nog een vraag uit het publiek.

836
01:19:39,840 --> 01:19:45,400
Hallo gebruiker Alfons, ik dacht eigenlijk dat we hier veel meer zouden praten

837
01:19:45,400 --> 01:19:52,280
over de kwestie van door AI gegenereerde afbeeldingen. Het sprak je heel kort aan, maar zoals je

838
01:19:52,280 --> 01:19:57,240
misschien weet of hebt gevolgd op de discussiepagina's, toen Chet-T-Petit

839
01:19:57,240 --> 01:20:02,720
dit voorjaar overal opdook, rees meteen de vraag: hoe zit het met door AI gegenereerde

840
01:20:02,720 --> 01:20:11,040
afbeeldingen? Ik illustreer het artikel AI niet, maar waar iemand gewoon

841
01:20:11,040 --> 01:20:17,720
denkt, zal ik een prompt maken, ik zal de AI voor mij laten werken en elke afbeelding samenstellen

842
01:20:17,720 --> 01:20:24,080
waarvan ik denk dat deze een leemte op Wikipedia zal opvullen. En we

843
01:20:24,080 --> 01:20:29,400
hadden er in deze context een discussie over en naar mijn mening was het relatief verbazingwekkend,

844
01:20:29,400 --> 01:20:36,600
bevredigend en consistent, namelijk dat dergelijke foto’s, als ze het AI-artikel niet illustreren,

845
01:20:36,600 --> 01:20:44,960
onder verdenking staan ​​van TF, dat wil zeggen theorieontwikkeling, je bouw gewoon zelf iets samen, dit heeft

846
01:20:44,960 --> 01:20:51,760
geen aanspraak op uiteindelijke authenticiteit en wordt uit de artikelen verwijderd. Dat hadden we zelfs,

847
01:20:51,760 --> 01:20:57,840
er is nog een kleine variatie op, er waren een tijdje mensen die

848
01:20:57,840 --> 01:21:05,800
contouren schilderden van mensen voor wie er geen plaatjes op Wikipedia stonden. We hadden 30 of 40 van dat soort foto's,

849
01:21:05,800 --> 01:21:11,560
ik denk vooral artikelen over muzikanten, die vervolgens allemaal

850
01:21:11,640 --> 01:21:15,280
zijn verwijderd. Misschien kunnen we daar nog eens kort over praten. Bedankt.

851
01:21:15,280 --> 01:21:24,160
Ik ben dus erg blij om dit onderwerp ter sprake te brengen, ook al ben ik helemaal geen AI-expert, maar

852
01:21:24,160 --> 01:21:29,280
ik benader het onderwerp uit eigen interesse en ik

853
01:21:29,280 --> 01:21:34,960
denk niet dat er nog zoveel onderzoek is gedaan. in ieder geval niet over het Jet-GPT-fenomeen DALI, dat wil zeggen chatbots, waarover momenteel

854
01:21:34,960 --> 01:21:40,600
sinds november vorig jaar in de hele samenleving wordt onderhandeld. Maar ik zie het ook als

855
01:21:40,680 --> 01:21:44,880
een groot probleem, de AI-gegenereerde beelden. Ik zie het dus als een

856
01:21:44,880 --> 01:21:52,200
tweesnijdend zwaard. Je ziet zeker kansen, maar je moet ze heel, heel goed in bedwang houden,

857
01:21:52,200 --> 01:21:57,880
dus je moet nadenken over hele goede regels over wanneer afbeeldingen

858
01:21:57,880 --> 01:22:04,160
nog acceptabel zijn voor Wikipedia. Als het bijvoorbeeld gaat om historische personen, dat wil zeggen mensen

859
01:22:04,160 --> 01:22:09,240
die al overleden zijn en voor wie er Wikipedia-artikelen bestaan, als er

860
01:22:09,240 --> 01:22:16,320
beeldmateriaal is dat alleen historische sterrenbeelden bevat, zoals de

861
01:22:16,320 --> 01:22:22,080
familiefoto van Marie Curie, waarop haar vader zo zit centraal zou het uiteraard een

862
01:22:22,080 --> 01:22:30,640
zekere aantrekkingskracht hebben om op basis van zulke beelden beelden te genereren waarin Marie Curie

863
01:22:30,640 --> 01:22:36,720
te zien is in hedendaagse constellaties. Maar dat is natuurlijk heel riskant omdat het

864
01:22:36,720 --> 01:22:41,600
volledig in tegenspraak is met eerdere beeldculturen. Ik zou zeggen dat we simpelweg willen

865
01:22:41,600 --> 01:22:47,000
dat beelden een zekere authenticiteit hebben en dat de

866
01:22:47,000 --> 01:22:52,280
genoemde beelden de contouren van mensen zijn. Ik denk dat het ook een wens was om

867
01:22:52,280 --> 01:22:56,560
mensen die al overleden zijn en niet meer gefotografeerd kunnen worden een

868
01:22:56,560 --> 01:23:02,960
gezicht te geven, laten we zeggen op Wikipedia, omdat we een heel

869
01:23:02,960 --> 01:23:08,760
visuele cultuur hebben. Maar ik begrijp het natuurlijk ook als je zorgen hebt over

870
01:23:08,760 --> 01:23:14,920
het integreren van dergelijke beelden, zoals ik al zei, gezien het idee van de authenticiteit van beelden. Naar mijn

871
01:23:14,920 --> 01:23:20,360
mening overheersen op dit moment de gevaren van AI-gegenereerde beelden duidelijk. Zoals gezegd

872
01:23:20,360 --> 01:23:25,040
heb ik op dit moment de indruk dat er

873
01:23:25,040 --> 01:23:33,160
, vooral als het gaat om de representatie van vrouwen, een stortvloed aan beeldmateriaal ontstaat dat voortbouwt op eerder materiaal en

874
01:23:33,160 --> 01:23:37,880
zelfs genderstereotypen versterkt die al terug te vinden zijn in eerder, authentiek beeldmateriaal. materiaal.

875
01:23:37,880 --> 01:23:43,880
En daar wordt prompt zo voor gekozen dat genderstereotypering veel meer

876
01:23:43,880 --> 01:23:48,960
wordt overgenomen en dat dit beeldmateriaal op Wikimedia Commons is

877
01:23:48,960 --> 01:23:54,200
dat in geen geval op Wikipedia terecht mag komen. Ik kan me geen

878
01:23:54,200 --> 01:24:00,800
enkele context voorstellen waarin deze beelden gebruikt zouden kunnen worden. En daarom zie ik er hier één

879
01:24:00,800 --> 01:24:05,680
Er is een grote behoefte om de regels op Wikimedia Commons te heroverwegen. Ik denk dat er nog

880
01:24:05,680 --> 01:24:10,640
niet veel regelgeving bestaat over wat er op Wikimedia Commons kan worden gepost. Waarschijnlijk gezien

881
01:24:10,640 --> 01:24:14,240
het feit dat mensen over het algemeen blij waren als iemand de moeite had genomen

882
01:24:14,240 --> 01:24:20,960
om hier foto's te plaatsen, maar met de mogelijkheid om

883
01:24:20,960 --> 01:24:26,920
met een druk op de knop massa's foto's te genereren met bepaalde aanwijzingen, vanuit mijn oogpunt deze prachtige foto-inventaris , dit prachtige

884
01:24:26,920 --> 01:24:32,120
beeldmateriaal, overstroomt wat voorheen grotendeels beschikbaar was op Wikimedia Commons. Naar mijn mening zal dit volledig

885
01:24:32,120 --> 01:24:36,840
overschaduwd worden als hier niet tijdig regelgeving wordt gevonden. En dan

886
01:24:36,840 --> 01:24:41,320
zou je in de tweede plaats natuurlijk moeten nadenken over hoe je in andere Wiki-projecten met dit beeldmateriaal op Wikimedia Commons omgaat

887
01:24:41,320 --> 01:24:47,960
. Dit is mijn eerste, nogal voorzichtige

888
01:24:47,960 --> 01:24:53,640
houding ten opzichte van beelden. Precies, Ziko, je wilt nu zeker iets. Oh, daar ben ik ook erg voorzichtig mee

889
01:24:53,640 --> 01:24:59,840
. Ja, heel erg bedankt, Alphons, dat je het nog een keer hebt rondgegooid. Ik heb een video

890
01:24:59,840 --> 01:25:05,600
op mijn kanaal, dus ik wil niet op de meeste aspecten ervan ingaan. Ja, het is altijd de

891
01:25:05,600 --> 01:25:11,920
vraag: wat verwacht ik van een foto? Beschouw ik het echt als bron of als illustratie? En

892
01:25:11,920 --> 01:25:16,880
dan hebben we nog evenveel voorbeelden uit de geschiedenis van de encyclopedie waarbij je ook nog eens

893
01:25:16,880 --> 01:25:22,760
pure illustraties van iets had. Geschiedenisschilderen en ja, ik vind het altijd moeilijk om te

894
01:25:22,760 --> 01:25:29,360
zeggen waarom met name AI niet is toegestaan. Maar goed, daarover meer. Wat de beelden van vrouwen betreft,

895
01:25:29,360 --> 01:25:34,080
het zijn zeer geseksualiseerde representaties van wat ik weet: fantasie,

896
01:25:34,080 --> 01:25:39,320
schaars geklede krijgersvrouw of iets dergelijks. En ik vraag me ook af waar de noodzaak voor is,

897
01:25:39,320 --> 01:25:45,080
tenzij je in een artikel over kunstmatige intelligentie wilt laten zien dat zulke beelden bestaan

898
01:25:45,080 --> 01:25:50,480
​​of zoiets. Ja, ik weet niet of de regels strenger moeten. Dan worden ze gewoon

899
01:25:50,480 --> 01:25:56,480
genegeerd. Ze staan ​​op Commons. In hoeverre ze daar voor overlast zorgen weet ik niet. Maar ja,

900
01:25:56,480 --> 01:26:02,920
in hoeverre wil Wikimedia Commons nu een platform zijn voor wat uiteindelijk

901
01:26:02,920 --> 01:26:09,680
een soort fanart of amateurtekeningen is, of hoe je het ook wilt noemen. Dit

902
01:26:09,680 --> 01:26:14,440
is dus mogelijk niet het geschikte platform hiervoor. Ik kan dit ongenoegen begrijpen.

903
01:26:14,440 --> 01:26:23,680
Ja, maar in het algemeen, hoe dit zich zal ontwikkelen in de samenleving, of mensen

904
01:26:23,680 --> 01:26:30,600
over vijf jaar misschien veel cooler zullen zijn met representaties als Albert Einstein op de een of andere manier in

905
01:26:30,600 --> 01:26:35,200
reconstructies met AI. Het kan zijn dat mensen het helemaal oké vinden.

906
01:26:35,200 --> 01:26:39,840
Ik heb nog één vraag uit het publiek en dan komen we langzaam aan het einde.

907
01:26:44,440 --> 01:27:01,480
Mijn naam is dus Andreas Werle. Jullie weten allemaal dat Shakespeare mijn hobby is en dat ik,

908
01:27:01,480 --> 01:27:09,400
samen met een Engelse geleerde Wide Horizons,

909
01:27:09,400 --> 01:27:16,440
het hele oeuvre volledig heb herschreven, inclusief Shakespeare, alle drama's, en ook alle foto's heb uitgewisseld en nieuwe foto's heb toegevoegd. En dat

910
01:27:16,440 --> 01:27:24,200
is problematisch, want het werk van Shakespeare zit vol vrouwonvriendelijke elementen en

911
01:27:24,200 --> 01:27:32,440
koloniale fantasieën enzovoort. En ik heb bewust twee voorbeelden gekozen van beelden

912
01:27:32,440 --> 01:27:40,040
die het koloniale stereotype en een vrouwonvriendelijk element reproduceren, namelijk in King Lear,

913
01:27:40,040 --> 01:27:49,040
een foto van Margaret Cameron, waarop Lear te zien is en vervolgens de twee slechte dochters

914
01:27:49,040 --> 01:27:54,000
die achter hem staan, die bedrieglijk zijn en vervolgens de goede dochter, Cordelia,

915
01:27:54,000 --> 01:28:00,600
die een beetje voor hem buigt en die de nederige dochter zou moeten zijn

916
01:28:00,680 --> 01:28:09,080
omdat zij de goede dochter is. In feite

917
01:28:09,080 --> 01:28:15,560
zijn de geschiedenis van de interpretatie en de moderne interpretatie van het werk en het werk zelf hier volledig tegengesteld aan. Cordelia is dus

918
01:28:15,560 --> 01:28:22,600
rebels, spreekt Lear tegen en verschijnt later als militair leider en probeert

919
01:28:22,600 --> 01:28:28,600
Engeland te veroveren. En de twee sluwe dochters, de slechte, zijn degenen

920
01:28:28,600 --> 01:28:37,000
die koppig zijn, die zich verzetten tegen de vader, de vaderfiguur. En in het

921
01:28:37,000 --> 01:28:42,640
Cleopatra-artikel heb ik gekozen voor een heel klassiek beeld, dat

922
01:28:42,640 --> 01:28:48,760
Cleopatra voorstelt als een femme fatale, dat in principe de koloniale context op een bevestigende manier weerspiegelt,

923
01:28:48,760 --> 01:28:56,040
ook al is Cleopatra een van de meest fantastische personages die Shakespeare

924
01:28:56,040 --> 01:29:03,440
naast Hamlet heeft gespeeld en.. Falstaff gegenereerd en waar iedereen gefascineerd is door deze sterke,

925
01:29:03,440 --> 01:29:09,040
emotionele en tegenstrijdige vrouw. Dus deze tegenstrijdigheid vind ik interessant

926
01:29:09,040 --> 01:29:14,240
en uitdagend en ik deed dit bewust, dus het is mij volkomen duidelijk dat

927
01:29:14,240 --> 01:29:20,360
deze beelden in de eerste plaats in strijd zijn met de inhoud van de werken en ten tweede met de geschiedenis van de interpretatie.

928
01:29:20,360 --> 01:29:31,280
Denk je dat dat goed is? Wat denk jij ervan? Het onderschrift in het Lear-artikel is eenvoudigweg

929
01:29:31,280 --> 01:29:38,960
King Lear en zijn dochters, geschreven door Margaret Cameron en Cleopatra, daar staat alleen

930
01:29:38,960 --> 01:29:46,040
een naam, geschilderd door die en die. Bedankt. Ja, helemaal spannend, Ziko, ik zou beginnen

931
01:29:46,040 --> 01:29:51,680
als je wilt. De discussie over fictieve teksten op Wikipedia is uiteraard

932
01:29:51,680 --> 01:29:57,680
zeer relevant voor onderwijscontexten, omdat leerlingen ook

933
01:29:57,680 --> 01:30:03,080
toegang krijgen tot Wikipedia als ze

934
01:30:03,080 --> 01:30:11,680
fictieve teksten bespreken in onderwijscontexten en dit spanningsveld van wat we nu hebben besproken, hoe afbeeldingen werken en

935
01:30:11,680 --> 01:30:16,600
ik vind het heel spannend dat mensen ontvangstverhalen in het artikel willen opnemen,

936
01:30:16,600 --> 01:30:21,800
maar ik zou ook graag willen dat de bijschriften misschien ook

937
01:30:21,800 --> 01:30:27,200
de achtergrond onthullen waartegen deze beelden zijn gekozen. Ik denk dus dat het heel logisch is

938
01:30:27,200 --> 01:30:33,320
om de bijschriften opnieuw te formuleren en op zijn minst tot op zekere hoogte te vermelden

939
01:30:33,320 --> 01:30:37,760
waarom welke afbeeldingen hier zijn geselecteerd, met welke achtergrond,

940
01:30:37,760 --> 01:30:46,240
zodat het transparant wordt voor, in ieder geval voor, studenten. Of studenten

941
01:30:46,240 --> 01:30:51,360
vervolgens op zo'n doordachte manier toegang krijgen tot Wikipedia valt nog te bezien, maar voor

942
01:30:51,360 --> 01:30:56,360
studenten zou het in ieder geval wellicht transparanter worden en misschien ook een andere mogelijkheid bieden

943
01:30:56,680 --> 01:31:02,280
om nog eens na te denken over waarom bepaalde beeldinventarisaties hier zijn opgenomen. Dus,

944
01:31:02,280 --> 01:31:08,040
zoals ik al zei, onderschat de bijschriften van afbeeldingen niet, maar vertel liever

945
01:31:08,040 --> 01:31:18,800
waarom welke afbeeldingsinventarissen hier zijn opgenomen. Ja, dank je Andreas. Een heel interessant voorbeeld,

946
01:31:18,800 --> 01:31:22,640
aan zoiets had ik eerlijk gezegd nog niet eens gedacht. Ja, ik weet niet of

947
01:31:22,800 --> 01:31:27,360
een AI-beeld zou kunnen helpen en dan bespreken we het samen, ja de dochter zou

948
01:31:27,360 --> 01:31:32,760
wat minder bescheiden in beeld moeten worden gebracht of zoiets, wie weet. Heel interessant, dank je.

949
01:31:32,760 --> 01:31:40,800
Ja, ik denk dat we daarmee aan het einde zijn gekomen. Bedankt Ziko en Eva

950
01:31:40,800 --> 01:31:47,280
voor hun digitale deelname en bedankt aan het publiek voor hun deelname aan de discussie. Doei.