Dutch subtitles for clip: File:WikiCon 2023 - Wikipedia. Macht. Bilder. Ein Streitgespräch über (Gender) Bias und Bilder in der Wikipedia.webm
Jump to navigation
Jump to search
1 00:00:00,000 --> 00:00:10,000 [Ondertiteling automatisch met Whisper Medium/herzien] Dus welkom. Ik hoop dat Eva en Ziko nu allebei online zijn. 2 00:00:10,000 --> 00:00:12,000 Oké, hij knikt, dus dat is het. 3 00:00:12,000 --> 00:00:18,000 Ja, Eva was lange tijd mijn collega aan de Universiteit van Mannheim, en Ziko was ook onze gast in Mannheim. 4 00:00:18,000 --> 00:00:22,000 Daarom ben ik des te blijer dat ik hen beiden vandaag kort kan voorstellen 5 00:00:22,000 --> 00:00:27,000 en daarna de discussie kan modereren. 6 00:00:27,000 --> 00:00:31,000 Eva Gredel is junior professor in Duisburg-Essen. 7 00:00:31,000 --> 00:00:35,000 Ze is junior hoogleraar Duitse taalkunde 8 00:00:35,000 --> 00:00:40,000 en haar focus ligt op het digitale discours en onderwijs in de digitale wereld. 9 00:00:40,000 --> 00:00:44,000 Op beide terreinen houdt zij zich ook bezig met Wikipedia, 10 00:00:44,000 --> 00:00:49,000 met Wikipedia-didactiek, het gebruik van Wikipedia in het onderwijs en met 11 00:00:49,000 --> 00:00:53,000 Wikipedia, het wetenschappelijk onderzoek van Wikipedia. 12 00:00:53,000 --> 00:00:57,000 En in het bijzonder houdt ze zich bezig met digitale multimodale discoursen 13 00:00:57,000 --> 00:01:00,000 en ook met de gendervooroordelen op Wikipedia. 14 00:01:00,000 --> 00:01:05,000 In 2017 was ze mede-organisator van de Wiki-DACH in Mannheim 15 00:01:05,000 --> 00:01:10,000 en gaf dit jaar ook een lezing op de Femnetz-bijeenkomst. 16 00:01:10,000 --> 00:01:18,000 Ziko van Dijk is sinds 2003 actief op Wikipedia bij Wikimedia Duitsland en Nederland, en 17 00:01:18,000 --> 00:01:25,000 zat tevens in het bestuur en scheidsgerecht van Nederland en de Duitse Wikipedia. 18 00:01:25,000 --> 00:01:30,000 Hij is mede-oprichter van Klexikon, een online encyclopedie voor kinderen, 19 00:01:30,000 --> 00:01:36,000 is gepromoveerd in de geschiedenis en heeft een bijzondere interesse in afbeeldingen op Wikipedia, 20 00:01:36,000 --> 00:01:39,000 inclusief door AI gegenereerde afbeeldingen. 21 00:01:39,000 --> 00:01:45,000 Hij heeft al twee boeken op Wikipedia gepubliceerd, in 2010 en 2021, 22 00:01:45,000 --> 00:01:48,000 zoals ‘Understanding Wikis and Wikipedia’. 23 00:01:48,000 --> 00:01:52,000 Beide sprekers delen een interesse in afbeeldingen op Wikipedia, 24 00:01:52,000 --> 00:01:57,000 en zij zullen nu hun verschillende opvattingen over het onderwerp aan ons uitleggen. 25 00:01:57,000 --> 00:02:01,000 En aan het eind is er zoals gezegd tijd voor discussie, 26 00:02:01,000 --> 00:02:04,000 zowel hier in de zaal als via de chat. 27 00:02:04,000 --> 00:02:08,000 En dan zal ik de vragen doorgeven. 28 00:02:08,000 --> 00:02:10,000 Welkom, Eva en Ziko. 29 00:02:10,000 --> 00:02:11,000 Hallo. 30 00:02:11,000 --> 00:02:12,000 Hallo. 31 00:02:12,000 --> 00:02:13,000 Ja. 32 00:02:13,000 --> 00:02:21,000 Ja, volgens de structuur die we voor onze discussie hebben gepland, 33 00:02:21,000 --> 00:02:27,000 zo hebben we het format genoemd, zou ik nu eerst 34 00:02:27,000 --> 00:02:32,000 mijn taalkundige, deels semiotische, beeldwetenschappelijke visie presenteren, 35 00:02:32,000 --> 00:02:37,000 met de nadruk op vrouwen op Wikipedia. 36 00:02:37,000 --> 00:02:39,000 Maar het gaat ook verder dan dat. 37 00:02:39,000 --> 00:02:43,000 En dat klopt, Ziko's standpunt zal later worden voortgezet. 38 00:02:43,000 --> 00:02:46,000 Ik kan zelf zeggen dat ik een beetje enthousiast ben 39 00:02:46,000 --> 00:02:49,000 omdat de technische connectie ook wat complexer is. 40 00:02:49,000 --> 00:02:53,000 Ik kijk in ieder geval uit naar de discussie achteraf 41 00:02:53,000 --> 00:02:55,000 en hoop dat we met onze discussie, 42 00:02:55,000 --> 00:03:01,000 die uiteindelijk misschien niet zo controversieel of niet zo controversieel is, 43 00:03:01,000 --> 00:03:07,000 maar wel stof tot nadenken kunnen brengen voor de Wikipedia-gemeenschap. 44 00:03:08,000 --> 00:03:14,000 Ga misschien terug naar de overkoepelende titel waar Ziko en ik over hadden nagedacht: 45 00:03:14,000 --> 00:03:17,000 Wikipedia. Macht. Afbeeldingen. 46 00:03:17,000 --> 00:03:22,000 Dit is een titel die op verschillende manieren gelezen kan worden. 47 00:03:22,000 --> 00:03:28,000 Aan de ene kant zie je natuurlijk dat veel internetgebruikers 48 00:03:28,000 --> 00:03:32,000 Wikipedia raadplegen en het als centrale informatiebron gebruiken. 49 00:03:32,000 --> 00:03:36,000 En je kunt dan de veronderstelling of de veronderstelling uitdrukken 50 00:03:36,000 --> 00:03:44,000 dat Wikipedia, als centrale informatiebron, de kijk van mensen op de wereld beïnvloedt, 51 00:03:44,000 --> 00:03:49,000 om zo te zeggen beelden van de wereld overbrengt. 52 00:03:49,000 --> 00:03:53,000 En aan de andere kant kun je het ook zo lezen dat het de vraag is 53 00:03:53,000 --> 00:04:00,000 wie eigenlijk de macht heeft op Wikipedia om bepaalde afbeeldingen op discussiepagina’s op te leggen, 54 00:04:00,000 --> 00:04:06,000 dat wil zeggen om vervolgens de vraag af te dwingen hoe bepaalde feiten 55 00:04:06,000 --> 00:04:10,000 in de analoge wereld zouden moeten zijn. geïllustreerd en geïllustreerd. 56 00:04:10,000 --> 00:04:14,000 En mijn titel, vandaag gaat het over wiki-wereldbeelden, 57 00:04:14,000 --> 00:04:17,000 ik ondertekende de titel met onderschatte afbeeldingen, 58 00:04:17,000 --> 00:04:20,000 bijschriften en digitale beeldpraktijken. 59 00:04:20,000 --> 00:04:24,000 Dus mijn zorg is nu hoe 60 00:04:24,000 --> 00:04:28,000 wereldbeelden worden geconstrueerd en gecreëerd met behulp van afbeeldingen op Wikipedia. 61 00:04:28,000 --> 00:04:35,000 En dat dit een aspect is, een onderwerp dat echt heel erg de moeite waard is om te bespreken. 62 00:04:35,000 --> 00:04:40,000 Precies, voordat we aan de daadwerkelijke presentaties begonnen, 63 00:04:40,000 --> 00:04:45,000 wilden we twee blokken hebben waarin Ziko en ik onze verklaringen zouden presenteren. 64 00:04:45,000 --> 00:04:51,000 En je zou op dit punt mijn tweede dia kunnen laten zien voor mijn uitspraken. 65 00:04:51,000 --> 00:04:54,000 Ziko en ik dachten elk na over drie stellingen. 66 00:04:54,000 --> 00:04:57,000 Ik heb een kleine preview toegevoegd van het onderwerp 67 00:04:57,000 --> 00:05:01,000 dat we alleen vandaag kunnen bespreken, maar dat 68 00:05:01,000 --> 00:05:06,000 in de toekomst waarschijnlijk ook van relatief groot belang zal zijn voor de Wikipedia-gemeenschap. 69 00:05:06,000 --> 00:05:10,000 Mijn stelling is dus dat afbeeldingen niet alleen Wikipedia-artikelen lichter maken. 70 00:05:10,000 --> 00:05:14,000 Ze illustreren deze niet alleen, maar ze suggereren nog veel meer wereldbeelden 71 00:05:14,000 --> 00:05:19,000 en kunnen ook leiden tot thematische vervormingen en vooringenomenheid. 72 00:05:20,000 --> 00:05:24,000 Ten tweede concretiseren ondertitels de betekenis, 73 00:05:24,000 --> 00:05:27,000 de relatief open betekenis van beelden in de betreffende context. 74 00:05:27,000 --> 00:05:31,000 En ze mogen dus niet onderschat worden op Wikipedia. 75 00:05:31,000 --> 00:05:35,000 Het zijn relatief kleine teksten, de onderschriften, maar naar mijn mening zijn ze 76 00:05:35,000 --> 00:05:39,000 van groot belang voor de algemene betekenis van een artikel. 77 00:05:39,000 --> 00:05:44,000 En ten slotte is de omgang met afbeeldingen en tekst-beeldconstellaties in de cultuur 78 00:05:44,000 --> 00:05:49,000 van digitaliteit een onderwerp dat de moeite waard is om te bespreken, ook voor de Wikipedia-gemeenschap. 79 00:05:49,000 --> 00:05:53,000 We hebben digitale platforms die natuurlijk erg veel beeld bevatten, zoals 80 00:05:53,000 --> 00:05:58,000 Instagram, maar op Wikipedia 81 00:05:58,000 --> 00:06:02,000 zijn afbeeldingen en hun bijschriften en de teksten rondom afbeeldingen ook erg belangrijk. 82 00:06:02,000 --> 00:06:06,000 En ik denk dat er nog steeds ruimte is voor verbetering 83 00:06:06,000 --> 00:06:10,000 als het gaat om de regels voor het gebruik van afbeeldingen op Wikipedia, en dat er 84 00:06:10,000 --> 00:06:13,000 misschien een paar aspecten in de Wikipedia-regels kunnen worden opgenomen. 85 00:06:13,000 --> 00:06:19,000 En de vooruitzichten hebben betrekking op de distributie van afbeeldingen die zijn gegenereerd met AI-tools. 86 00:06:19,000 --> 00:06:25,000 En vanuit mijn standpunt zijn er compleet nieuwe uitdagingen verbonden aan deze 87 00:06:25,000 --> 00:06:30,000 door AI gegenereerde afbeeldingen, vooral voor het ontwerp van Wikimedia-projecten. 88 00:06:30,000 --> 00:06:34,000 Precies, dat zijn mijn stellingen. Nu zou ik, vlak voordat ik met de lezing begin, 89 00:06:34,000 --> 00:06:39,000 deze aan Ziko overhandigen, zodat hij zijn scripties kort kan presenteren. 90 00:06:40,000 --> 00:06:45,000 Ja, dank je Eva. Nou, ik zal het kort en pijnloos maken, anders zien we wel. 91 00:06:45,000 --> 00:06:52,000 Stelling 1. De Wikimedia-beweging moet beter werk leveren met afbeeldingen en ik zal daar zo meteen voorbeelden van hebben. 92 00:06:52,000 --> 00:06:58,000 Stelling 2. Wat invloed kan hebben, heeft dat niet automatisch altijd. 93 00:06:58,000 --> 00:07:06,000 En stelling 3. Emancipatorische impulsen kunnen afglijden naar problematisch collectivisme. 94 00:07:06,000 --> 00:07:12,000 Bamm, dat zullen we zo meteen zien. Nu kijk ik uit naar de lezing van Eva. 95 00:07:12,000 --> 00:07:17,000 Ja heel erg bedankt Ziko, dan zou ik doorgaan. Op de volgende dia wil ik kort 96 00:07:17,000 --> 00:07:22,000 de belangrijkste punten bespreken die Maja noemde. Nou, ik heb een junior hoogleraarschap 97 00:07:22,000 --> 00:07:26,000 met tenure check voor de Duitse taalkunde, maar de taalkunde is 98 00:07:26,000 --> 00:07:32,000 de afgelopen jaren ook sterk uitgebreid met symbiotische visuele wetenschappelijke aspecten. 99 00:07:32,000 --> 00:07:38,000 Ook in de taalkunde speelt multimodaliteit, dat wil zeggen het gebruik van afbeeldingen, video’s en audiodocumenten, 100 00:07:38,000 --> 00:07:43,000 een grote rol. En juist deze multimodaliteit, 101 00:07:43,000 --> 00:07:48,000 dat wil zeggen het gebruik van afbeeldingen, video- en audiomateriaal op bijvoorbeeld Wikipedia, was ook het onderwerp van mijn 102 00:07:48,000 --> 00:07:55,000 habilitatiescriptie, die ik in 2022 verdedigde tijdens een habilitatiecolloquium. 103 00:07:55,000 --> 00:08:02,000 En ik was ook geïnteresseerd in de effecten van bepaalde beeldinventarisaties 104 00:08:02,000 --> 00:08:07,000 op de betekenis van artikelen. Ja, de afgelopen jaren zijn 105 00:08:07,000 --> 00:08:13,000 enkele van mijn publicaties op Wikipedia en Wikipedactics verschenen in de context van dit habilitatieproject . 106 00:08:13,000 --> 00:08:20,000 Ik ben dus geïnteresseerd in hoe je internetgebruikers, vooral jongeren, kennis kunt laten maken met het reflectieve gebruik van Wikipedia 107 00:08:20,000 --> 00:08:24,000 in onderwijscontexten, of dat nu op school of op de universiteit is . Ik ervaar keer 108 00:08:24,000 --> 00:08:29,000 op keer dat vooral de zogenaamde digital natives Wikipedia zeer intensief gebruiken, 109 00:08:29,000 --> 00:08:33,000 maar bijvoorbeeld de discussiepagina's en de versiegeschiedenis helemaal niet kennen, 110 00:08:33,000 --> 00:08:38,000 dus ze hebben nooit een kijkje achter de schermen van Wikipedia genomen en dat ze zeer centrale aspecten missen 111 00:08:38,000 --> 00:08:44,000 , om wiki's in het algemeen, maar ook Wikipedia in het bijzonder, te begrijpen. 112 00:08:44,000 --> 00:08:48,000 En daarom heb ik de insteek om, bijvoorbeeld in mijn universitaire seminars hier met studenten, 113 00:08:48,000 --> 00:08:54,000 goed te kijken waar je bijvoorbeeld argumenten kunt vinden voor het gebruik van bepaalde afbeeldingen op de 114 00:08:54,000 --> 00:08:58,000 discussiepagina's. Dus dat gaat kort over mij. En het is precies tegen deze achtergrond 115 00:08:58,000 --> 00:09:04,000 dat ik mijn presentatie van vandaag op de volgende dia in een grotere context wil 116 00:09:04,000 --> 00:09:10,000 plaatsen. Hoe komt het dat ik Wikipedia integreer in mijn universitaire seminars? Sinds 2022 beschikken we nu 117 00:09:10,000 --> 00:09:17,000 over nieuwe onderwijsnormen en het theoretische raamwerk voor deze onderwijsnormen, 118 00:09:17,000 --> 00:09:22,000 Dit zijn de vaardigheden die de leerlingen van vandaag tijdens de Duitse lessen zouden moeten verwerven. 119 00:09:22,000 --> 00:09:31,000 Er is veel over het onderwerp digitaliteit en digitaliteit als cultuurvormend 120 00:09:31,000 --> 00:09:37,000 raamwerk van onze tijd. En heel specifiek zijn deze onderwijsnormen, die 121 00:09:38,159 --> 00:09:44,159 op scholen in het hele land of op staatsniveau moeten worden geïmplementeerd, 122 00:09:44,159 --> 00:09:48,000 bedoeld om de onderwijsplannen en schoolcurricula te beïnvloeden. 123 00:09:48,000 --> 00:09:55,000 Stalder wordt expliciet genoemd in zijn boek ‘Culture of Digitality’ en hij zegt dat er drie centrale vormen van cultuur 124 00:09:55,000 --> 00:10:00,000 van digitaliteit zijn. Enerzijds is er gemeenschappelijkheid, referentialiteit en 125 00:10:00,000 --> 00:10:07,000 algoritmiciteit. Als het om gemeenschap gaat, zijn er de afgelopen twintig tot dertig jaar een aantal 126 00:10:07,000 --> 00:10:13,000 projecten ontstaan waarin Commons zijn opgebouwd. Hieronder valt ook Wikipedia 127 00:10:13,000 --> 00:10:20,000 met zijn vrij toegankelijke teksten. En Stalder legt uit dat er in deze context nieuwe 128 00:10:20,000 --> 00:10:26,000 algemene instituties zijn ontstaan en hij beschrijft Wikipedia bijvoorbeeld als een 129 00:10:26,000 --> 00:10:31,000 zogenaamde ad hoc meritocratie, wat betekent dat degenen die daar al heel lang bestaan ook 130 00:10:31,000 --> 00:10:39,000 de macht hebben om bepaalde teksten te bewerken en om breng beelden in bij de onderhandelingen over encyclopedisch relevante 131 00:10:39,000 --> 00:10:44,000 kwesties. Referentialiteit wijst hij er bijvoorbeeld op, met betrekking tot 132 00:10:44,000 --> 00:10:51,000 digitale fotografie, dat met de mogelijkheid om digitale beelden te maken met behulp van 133 00:10:51,000 --> 00:10:59,000 bijvoorbeeld smartphones, de artefacten, d.w.z. foto's, zich hebben vermenigvuldigd en gemakkelijk beschikbaar zijn en dat 134 00:10:59,000 --> 00:11:05,000 veel mensen erop vertrouwen dat ze toegang hebben tot digitale foto's. artefacten via internet, deel ze, 135 00:11:05,000 --> 00:11:11,000 koppel ze en gebruik ze voor hun eigen doeleinden. En tenslotte beschrijft hij 136 00:11:11,000 --> 00:11:17,000 algoritmiciteit. Ik denk dat iedereen dat weet. En het aspect dat vooral belangrijk is, is dat 137 00:11:17,000 --> 00:11:23,000 kunstmatige intelligentie nu kan worden gebruikt om bijvoorbeeld beelden te genereren. Dit betekent dat 138 00:11:23,000 --> 00:11:29,000 het aantal beschikbare afbeeldingen daadwerkelijk is toegenomen en dat 139 00:11:29,000 --> 00:11:35,000 hier ook de neiging kan worden vastgesteld om bepaalde mensen of feiten weer te geven. Dan ga ik 140 00:11:35,000 --> 00:11:40,000 verder met de volgende dia en wil hier graag enkele gedachten uit de taalkunde delen. In 141 00:11:40,000 --> 00:11:45,000 de taalkunde wordt dus aangenomen dat veel hulpmiddelen, gebarenmiddelen zoals taal, afbeeldingen, typografie, 142 00:11:45,000 --> 00:11:51,000 bijdragen aan het creëren van betekenis in teksten. En dat juist hun interactie belangrijk is bij 143 00:11:51,000 --> 00:11:57,000 het creëren van betekenis in teksten. En deze hulpbronnen vervullen heel verschillende taken. 144 00:11:57,000 --> 00:12:02,000 Ik zal je straks in detail laten zien wat dat betekent. Misschien nog een belangrijk citaat. Al in 2009 schreef Warnke 145 00:12:02,000 --> 00:12:08,000 over de kennismaatschappij dat de naïeve opvatting dat kennismaatschappijen 146 00:12:08,000 --> 00:12:12,000 door rationeel gebaseerde kennis beschermd zijn tegen de invloed van meningen, anderzijds gebaseerd is op 147 00:12:12,000 --> 00:12:17,000 de intersubjectief geborgde aanname dat kennis opinie is. en uiteindelijk machtsneutraal. 148 00:12:17,000 --> 00:12:22,000 Het tegendeel is het geval. Omdat kennis fundamenteel wordt betwist, vooral in 149 00:12:22,000 --> 00:12:30,000 kennismaatschappijen die via de massamedia opereren. Wat betekent dat? De aanname dat kennis neutraal kan zijn, 150 00:12:30,000 --> 00:12:36,000 maakt neutraal, wat betekent dat constellatie geen rol speelt. Hij verwerpt die stelling hier, 151 00:12:36,000 --> 00:12:42,000 maar kennis wordt fundamenteel betwist en intensief gedeeld. Ik denk dat dit een 152 00:12:42,000 --> 00:12:48,000 punt is dat ook heel, heel sterk van toepassing is op Wikipedia. Op de volgende dia wil ik 153 00:12:48,000 --> 00:12:56,000 laten zien welke functies en eigenschappen in de taalkunde aan beelden worden toegeschreven en ook welke 154 00:12:56,000 --> 00:13:02,000 functie taal vervult. Als het om beelden gaat, betekent dit dat ze 155 00:13:02,000 --> 00:13:07,000 gelijktijdig en holistisch worden waargenomen, dat ze snel kunnen worden waargenomen, dat ze een sterk geheugen en impact hebben, 156 00:13:07,000 --> 00:13:13,000 en dat ze verbonden zijn met emoties. En als het gaat om het betekenispotentieel, kun je zeggen dat beelden 157 00:13:13,000 --> 00:13:18,000 gepaard gaan met een overdaad aan betekenis, omdat ze objecten kunnen tonen die rijk zijn aan kenmerken. Maar tegelijkertijd zijn ze vaag en 158 00:13:18,000 --> 00:13:24,000 onderbepaald. Dit betekent dat ze een breed scala aan mogelijke betekenissen met zich meebrengen. Daarnaast 159 00:13:24,000 --> 00:13:29,000 kunnen beelden ook gepaard gaan met emotionele oproepen en handelingsinstructies. Bij 160 00:13:29,000 --> 00:13:34,000 taal is de waarneming subcessiever, lineair en aanzienlijk langzamer dan bij 161 00:13:34,000 --> 00:13:40,000 beelden. Hun betekenis is stevig verankerd en de betekenis is precies en duidelijk vergeleken met de betekenis van het beeld 162 00:13:40,000 --> 00:13:45,000 . Als we aan wetenschappelijke teksten denken, denk ik dat dat heel erg is 163 00:13:45,000 --> 00:13:51,000 pakkend en inzichtelijk. En teksten kunnen actie in de tijd weergeven, logische verbanden leggen 164 00:13:51,000 --> 00:13:56,000 en er zijn allerlei verwijzingen mogelijk. Je kunt taal bijvoorbeeld gebruiken om 165 00:13:56,000 --> 00:14:01,000 over taal te praten, wat bij beelden niet het geval is; je 166 00:14:01,000 --> 00:14:07,000 kunt in wezen over beelden nadenken met beelden. Op de volgende dia wil ik dit wat meer verduidelijken. Ik 167 00:14:07,000 --> 00:14:12,000 heb het duurzaamheidsdiscours op Wikipedia nader bekeken, d.w.z. de vraag hoe duurzaamheid 168 00:14:12,000 --> 00:14:18,000 specifiek wordt onderhandeld en gepresenteerd in het artikel Duurzaamheid op Wikipedia. En hier is het 169 00:14:18,000 --> 00:14:24,000 dat er een of meer afbeeldingen te vinden zijn op het Wikipedia-artikel of in het Wikipedia- 170 00:14:24,000 --> 00:14:30,000 artikel. En op één ervan is een soort gebouw te zien, waarschijnlijk een stal met heel veel 171 00:14:30,000 --> 00:14:38,000 varkens. En nu is de vraag: wat is het en wat het ons moet laten zien, wordt 172 00:14:38,000 --> 00:14:43,000 concreet gemaakt door het onderschrift. Maar nu is het zo dat hierover heel zwaar wordt onderhandeld en aan 173 00:14:43,000 --> 00:14:48,000 de hand van de versiegeschiedenis kan worden gereconstrueerd dat het onderschrift 174 00:14:48,000 --> 00:14:55,000 ook heel vaak wordt gewijzigd. Namelijk een gebruiker op 17 november 2017 en 16.28. beschrijft wat 175 00:14:55,000 --> 00:15:01,000 hier op de foto te zien is als moderne bio-industrie. En dit wordt in de Duden relatief duidelijk en met negatieve 176 00:15:01,000 --> 00:15:07,000 connotaties als volgt gedefinieerd. Dit is gemechaniseerde veehouderij op grote boerderijen om 177 00:15:07,000 --> 00:15:13,000 zoveel mogelijk dierlijke producten te produceren, en heeft dus een nogal negatieve connotatie. En in het geval van de veehouderij, 178 00:15:13,000 --> 00:15:17,000 zoals in het tweede plaatje, kan de moderne veehouderij duurzaam zijn als er 179 00:15:17,000 --> 00:15:23,000 rekening wordt gehouden met een efficiënte benadering van hulpbronnen, gebruik, milieueisen, veehouderijomstandigheden enzovoort 180 00:15:23,000 --> 00:15:29,000 . Je kunt hier dus zien dat een en dezelfde afbeelding 181 00:15:29,000 --> 00:15:35,000 heel verschillende onderschriften krijgt en dat het de bedoeling is dat de potentiële betekenis die bij de afbeelding hoort, 182 00:15:35,000 --> 00:15:41,000 nauwkeuriger wordt gemaakt door het schrijven, door de tekst die bij de afbeelding hoort. En we zien ook dat het 183 00:15:41,000 --> 00:15:47,000 beeld hier relatief geduldig is, zodat het alleen maar dient ter illustratie van de mogelijkheden voor beeldbetekenis 184 00:15:47,000 --> 00:15:52,000 en de eigenschappen die met beelden gepaard gaan, in tegenstelling tot wat schrijven en tekst 185 00:15:52,000 --> 00:15:58,000 kunnen bereiken. Dan kom ik bij de volgende slide en wil ik kort 186 00:15:58,000 --> 00:16:04,000 de informatie op Wikipedia over het illustreren van artikelen vermelden. Dit betekent dat 187 00:16:04,000 --> 00:16:09,000 het illustreren van het artikel aanzienlijk kan bijdragen aan het begrijpen van de artikeltekst en ook 188 00:16:09,000 --> 00:16:13,000 de body losser kan maken. Vanuit mijn oogpunt is dit een punt waarop beelden eigenlijk worden onderschat. 189 00:16:13,000 --> 00:16:18,000 Afbeeldingen en illustraties van artikelen gaan dus niet alleen over het losmaken van de zaken, maar feitelijk worden, 190 00:16:18,000 --> 00:16:23,000 zoals ik al zei, wereldbeelden gepresenteerd. Hij wil dat de zorgvuldig geselecteerde mediabestanden 191 00:16:23,000 --> 00:16:28,000 op de juiste plaats ten opzichte van de tekst worden geïntegreerd, zodat de tekst niet wordt gedomineerd 192 00:16:28,000 --> 00:16:33,000 en de leesbaarheid niet wordt aangetast. Dit gaat dus specifiek over tekst-beeldconstellaties. 193 00:16:33,000 --> 00:16:38,000 Er moet sprake zijn van een verwijzing naar de inhoud, een betekenis, dat wil zeggen relevantie van het beeld en, tot op zekere 194 00:16:38,000 --> 00:16:43,000 hoogte, representativiteit. Nu zou ik graag naar individuele voorbeelden op de volgende 195 00:16:43,000 --> 00:16:51,000 dia willen kijken en willen laten zien dat wat hier relatief weinig wordt besproken, 196 00:16:51,000 --> 00:16:57,000 in bepaalde artikelen problematisch kan zijn of op zijn minst de discussie zou moeten stimuleren. Precies, 197 00:16:57,000 --> 00:17:05,000 volgende dia alstublieft. Precies, hier hebben we de beeldinventaris, d.w.z. de afbeeldingen die 198 00:17:05,000 --> 00:17:12,000 zijn opgenomen in het artikel over Marie Curie zijn geïntegreerd en ik wil graag 199 00:17:12,000 --> 00:17:18,000 een citaat toevoegen van de Diversathon 2021, een evenement binnen de Wikipedia-gemeenschap 200 00:17:18,000 --> 00:17:24,000 dat omgaan met afbeeldingen is besproken , vooral met betrekking tot vrouwen, en er staat dat je 201 00:17:24,000 --> 00:17:29,000 in artikelen over vrouwen het gebruik van afbeeldingen van de vader van haar man of haar familie moet vermijden, 202 00:17:29,000 --> 00:17:34,000 tenzij dit absoluut noodzakelijk is en het artikel kwaliteit geeft. Deze afbeeldingen 203 00:17:34,000 --> 00:17:39,000 hebben de neiging de individualiteit van vrouwen te negeren zonder belangrijke informatie aan het artikel toe te voegen. 204 00:17:39,000 --> 00:17:45,000 We hebben hier nu iemand die 205 00:17:45,000 --> 00:17:50,000 zijn belangrijke wetenschappelijke bevindingen aan het einde van de 19e eeuw en het begin van de 20e eeuw heeft ontwikkeld en daarom hebben we 206 00:17:50,000 --> 00:17:56,000 hier ook historische beeldinventarissen en zoals je kunt zien, is wat in de afleiding wordt beschreven hier, 207 00:17:56,000 --> 00:18:01,000 maar ja daadwerkelijk geïmplementeerd, namelijk dat Marie Curie 208 00:18:01,000 --> 00:18:07,000 in context wordt getoond, in constellatie, constellatie van beelden die bijvoorbeeld de vader, de echtgenoot en Marie Curie vertegenwoordigen 209 00:18:07,000 --> 00:18:13,000 Hier staat het op veel plaatsen niet centraal, ook al is er een Wikipedia-artikel 210 00:18:13,000 --> 00:18:20,000 dat het bespreekt. Hier hebben we bijvoorbeeld Wladyslaw Sklodowski met zijn drie dochters en 211 00:18:20,000 --> 00:18:27,000 een van hen is Marie Curie, die later Marie Curie werd genoemd. Precies, 212 00:18:27,000 --> 00:18:33,000 je ziet hier een historische constellatie van mensen die we waarschijnlijk 213 00:18:33,000 --> 00:18:38,000 vaak terugvinden op plaatjes uit de 19e eeuw, maar de vraag die hier opkomt is of zo’n 214 00:18:38,000 --> 00:18:43,000 plaatje zal voldoen aan de eisen van een online encyclopedie van de 21e eeuw. als de persoon 215 00:18:43,000 --> 00:18:50,000 in kwestie hier helemaal niet centraal wordt geplaatst, maar er familiebeelden worden gereproduceerd 216 00:18:50,000 --> 00:18:57,000 die vandaag de dag niet meer houdbaar zijn, dat de vader zo centraal wordt geplaatst en wellicht juist 217 00:18:57,000 --> 00:19:02,000 niet past bij een artikel dat eigenlijk bedoeld is om een vrouw met haar wetenschappelijke 218 00:19:02,000 --> 00:19:07,000 prestaties. We zien haar dan weer met haar dochter en haar man, 219 00:19:07,000 --> 00:19:13,000 Pierre Curie, en best spannend uit een eerdere versie is de foto die vervolgens is ondertekend met 220 00:19:13,000 --> 00:19:18,000 de weduwe met haar jonge dochters Eve en Irène en hier zit eigenlijk Marie Curie 221 00:19:18,000 --> 00:19:24,000 in het midden , maar in het onderschrift staat de relationele 222 00:19:24,000 --> 00:19:30,000 persoonlijke naam weduwe, dus ze wordt 223 00:19:30,000 --> 00:19:36,000 in relatie geplaatst tot haar reeds overleden echtgenoot en de vraag is waarom hier het woord weduwe staat en niet bijvoorbeeld wetenschapper, 224 00:19:36,000 --> 00:19:42,000 dus waarom daarop zou moeten staan merkte op dat er hier geen man op de foto staat. De vraag is: 225 00:19:42,000 --> 00:19:47,000 is dit een relevant aspect, moet het beeld eigenlijk zo concreet gemaakt worden door het onderschrift? 226 00:19:47,000 --> 00:19:53,000 Het is eigenlijk al opgelost, dus in de huidige versie is het niet meer terug te vinden, 227 00:19:53,000 --> 00:19:59,000 maar het is natuurlijk een leuk punt om beeldinventarisaties en bijschriften, tekstbeeldconstellaties te illustreren. 228 00:19:59,000 --> 00:20:05,000 Bovenaan staat de ingelijste foto, Pierre en Marie Curie in hun laboratorium aan de Rue Curie. 229 00:20:05,000 --> 00:20:10,000 Er heeft zich een zeer opwindende discussie ontwikkeld op de overeenkomstige discussiepagina en ik heb 230 00:20:10,000 --> 00:20:15,000 nog een fragment op de volgende dia, Simon, als je verder kunt klikken, alsjeblieft. 231 00:20:15,000 --> 00:20:22,000 Precies, hartelijk dank. De vraag is welk beeld eigenlijk gebruikt moet worden om 232 00:20:22,000 --> 00:20:28,000 Marie Curie in haar werkcontext weer te geven. Daar op de overlegpagina staat: 233 00:20:28,000 --> 00:20:33,000 hallo Suku, waarom heb je de voorkeur gegeven aan jouw foto links boven mijn foto en heb je mijn wijziging ongedaan gemaakt? 234 00:20:33,000 --> 00:20:39,000 Dit gaat over Marie, en de hoofdpersoon moet naar de kijker kijken, groeten van OS en dan het antwoord, 235 00:20:39,000 --> 00:20:44,000 je spant het paard achter de wagen, het is aan jou om uit te leggen waarom je 236 00:20:44,000 --> 00:20:49,000 jouw verandering in deze vorm als een artikel verbetering. Attributen als indrukwekkend of het idee dat 237 00:20:49,000 --> 00:20:54,000 de hoofdpersoon naar de kijker moet kijken, zijn hier nogal subjectief. Wat dit fragment van de 238 00:20:54,000 --> 00:21:00,000 discussiepagina laat zien, is dat er daadwerkelijk discussies over afbeeldingen plaatsvinden en dat er in de loop van de 239 00:21:00,000 --> 00:21:06,000 geschiedenis van Wikipedia de afgelopen 22 jaar veel is verbeterd op het gebied van het onderwerp, 240 00:21:07,000 --> 00:21:13,000 reflecties op afbeeldingen, beelddiscussies en de vraag hoe vrouwen of andere groepen 241 00:21:13,000 --> 00:21:19,000 in beeld moeten worden gebracht is daar als het ware een voorbeeld van. 242 00:21:19,000 --> 00:21:26,000 Op de volgende dia wil ik graag bij een ander voorbeeld komen, dat nu over 243 00:21:26,000 --> 00:21:32,000 een architectenpaar gaat, de ene is Elisabeth Böhm en de andere is Gottfried Böhm, die allebei 244 00:21:32,000 --> 00:21:37,000 een Wikipedia-artikel hebben. En ook hier heb ik een citaat meegenomen 245 00:21:37,000 --> 00:21:43,000 dat op Wikipedia te vinden is, maar in de context van de Engelse versie van Wikipedia staat: 246 00:21:43,000 --> 00:21:48,000 Wat je hier in deze kleine fragmenten van het beeldmateriaal ziet, is dat Elisabeth Böhm 247 00:21:48,000 --> 00:21:53,000 veel aan de hand heeft. Er is minder beeldmateriaal en we zien hier vooral het familiegraf en 248 00:21:53,000 --> 00:21:58,000 ook zij is nog een keer afgebeeld samen met haar man en hieronder in de associatieve verwijzingen 249 00:21:58,000 --> 00:22:03,000 die hier aan de zijkant van de foto's worden getoond is het beeldmateriaal dat hier in de 250 00:22:03,000 --> 00:22:08,000 bibliotheek staat , die hier in de bibliotheek, in de bibliotheek, in de bibliotheek, in de bibliotheek is, 251 00:22:08,000 --> 00:22:14,000 wordt ook nog een keer getoond met haar man en hieronder in de associatieve verwijzingen 252 00:22:14,000 --> 00:22:19,000 worden de mannen van deze architectenfamilie getoond, maar zij wordt daar niet getoond alle. 253 00:22:19,000 --> 00:22:26,000 Hoe zit het dan met haar man? Het punt is dat we daar veel foto's hebben 254 00:22:26,000 --> 00:22:31,000 Er zijn gebouwen terug te vinden die hij ontwierp, terwijl bij Elisabeth Böhm op een gegeven moment geen enkel gebouw dat 255 00:22:31,000 --> 00:22:36,000 zij ontwierp in het artikel werd geïntegreerd, en dat is lange tijd zo geweest 256 00:22:36,000 --> 00:22:41,000 . Op de volgende dia liet ik het nog een keer zien, zodat je 257 00:22:41,000 --> 00:22:46,000 het iets groter kunt zien. De vraag hier is dus: waarom is zij 258 00:22:46,000 --> 00:22:51,000 als architect op Wikipedia opgenomen? Het voldeed dus aan de relevantiecriteria. Maar waarom zijn 259 00:22:51,000 --> 00:22:57,000 haar gebouwen niet ook geïntegreerd in het Wikipedia-artikel? Waarom zijn er hier beelden 260 00:22:57,000 --> 00:23:04,000 die haar niet echt weergeven 261 00:23:04,000 --> 00:23:12,000 in haar wetenschap of in haar professionele rol als architect ? Op de volgende dia zou ik 262 00:23:12,000 --> 00:23:17,000 een tekst-beeldconstellatie willen betreden en zoiets als multimodale lege ruimtes willen weergeven. Maar eerst wil ik even 263 00:23:17,000 --> 00:23:23,000 terug naar de tekst die bij de plaatjes staat. Er wordt gezegd dat ze na haar huwelijk in 1948, daarna als 264 00:23:23,000 --> 00:23:29,000 echtgenote, maar niet officieel als werknemer, op het architectenbureau werkte en na de 265 00:23:29,000 --> 00:23:35,000 toestemming om geschriften, die ze in de bibliotheek kreeg, van vier zonen te verkopen, meer liet zien aanwezigheid op het 266 00:23:35,000 --> 00:23:40,000 kantoor in Böhm. Dit zijn fragmenten die ik hier heb benadrukt. Dus vanuit mijn oogpunt 267 00:23:40,000 --> 00:23:46,000 is dit een voorbeeld van een artikel dat heel, heel sterk 268 00:23:46,000 --> 00:23:52,000 de familierollen van deze architect benadrukt, naar mijn mening te veel benadrukt en in delen ook op een respectloze manier beschreven 269 00:23:52,000 --> 00:24:00,000 . Ik kan mezelf zeker de vraag stellen: zijn dit formuleringen die benadrukken dat ze 270 00:24:00,000 --> 00:24:07,000 beide heeft gecombineerd of verenigd, dat wil zeggen familierollen en professionele rollen, of is het 271 00:24:07,000 --> 00:24:13,000 zo dat haar status als architect, haar professionele rol, niet serieus werd genomen? 272 00:24:13,000 --> 00:24:18,000 en werd hier te respectloos besproken. Zoals ik al zei, zie je hem hier nog eens in het frame zonder 273 00:24:18,000 --> 00:24:24,000 foto. Een foto van gebouwen die ze ontwierp, was lange tijd niet in haar artikel geïntegreerd. 274 00:24:24,000 --> 00:24:32,000 Op de volgende dia zal ik echter nog een fragment uit 275 00:24:32,000 --> 00:24:40,000 het artikel van Gottfried Böhm laten zien. En daar is het dan dat de WDR-arcades, die 276 00:24:40,000 --> 00:24:45,000 grotendeels zijn ontworpen door Elisabeth Böhm, daadwerkelijk zijn geïntegreerd met een afbeelding. In principe zou via Wikimedia [Commons] een geschikte afbeelding 277 00:24:45,000 --> 00:24:51,000 beschikbaar zijn geweest, maar deze werd alleen geïntegreerd in die van Gottfried Böhm, terwijl 278 00:24:51,000 --> 00:25:00,000 bij Elisabeth Böhm geen foto van dit gebouw te vinden is. En op de volgende dia wil ik 279 00:25:00,000 --> 00:25:04,000 het hebben over digitale beeldpraktijken, ook een klein aspect dat 280 00:25:04,000 --> 00:25:09,000 misschien kan worden gebruikt om zonder veel moeite een of twee artikelen te verbeteren. Ik heb eerder gezegd dat de 281 00:25:09,000 --> 00:25:18,000 Diversathon bepaalde dat het gepast zou zijn om vrouwen centraal op foto's te zien en niet 282 00:25:18,000 --> 00:25:25,000 in familieopstellingen met echtgenoten, zonen of wat dan ook. Elisabeth Böhm had zelfs 283 00:25:25,000 --> 00:25:31,000 lange tijd een foto met haar man in het artikel geïntegreerd. Bij Gottfried Böhm daarentegen 284 00:25:31,000 --> 00:25:37,000 werd een afbeelding bijgesneden, een digitaal beeld werd bijgesneden en aangepast zodat 285 00:25:37,000 --> 00:25:42,000 Gottfried Böhm centraal te zien was. En zoals we kunnen zien, was dit een foto 286 00:25:42,000 --> 00:25:49,000 waarop ook andere mensen te zien zijn. De vraag is nu: waarom rangschik je de foto van de man 287 00:25:49,000 --> 00:25:55,000 zo dat hij centraal staat? Voor de vrouw is het echter eigenlijk weer de familieopstelling. 288 00:25:55,000 --> 00:26:05,000 De man staat centraal op de foto. En dan kom ik bij mijn laatste inhoudelijke slide. 289 00:26:06,000 --> 00:26:11,000 Wat ik hier alleen kan aanstippen, maar wat ik echt interessant vind en 290 00:26:11,000 --> 00:26:17,000 graag in de discussie hier wil betrekken, is het onderwerp van door AI gegenereerde beelden. Ik noemde het een zegen of een vloek. 291 00:26:17,000 --> 00:26:22,000 Ik zie dus zeker voordelen van AI-gegenereerde beelden. Bepaalde historische constellaties zouden misschien 292 00:26:22,000 --> 00:26:28,000 beter of op een meer eigentijdse manier kunnen worden gepresenteerd met behulp van door AI gegenereerde beelden. 293 00:26:28,000 --> 00:26:33,000 Maar dat is een gewaagde stelling. Maar wat mij op dit moment opvalt, vooral op Wikimedia, is 294 00:26:33,000 --> 00:26:38,000 dat er dagelijks een ongelooflijk groot aantal afbeeldingen op Wikimedia wordt geplaatst 295 00:26:38,000 --> 00:26:46,000 die zeer, zeer sterk genderstereotiepe afbeeldingen van vrouwen zijn of als zodanig kunnen worden gezien. 296 00:26:46,000 --> 00:26:52,000 En de vraag is nu: wat doet het met Wikimedia en wat doet het met de illustraties op Wikipedia 297 00:26:52,000 --> 00:27:00,000 als we zo’n stortvloed aan door AI gegenereerde afbeeldingen zien die verre van aan de criteria voldoen? 298 00:27:00,000 --> 00:27:06,000 waaraan afbeeldingen op Wikipedia doorgaans moeten voldoen. Misschien is dit ook een mooi startpunt 299 00:27:06,000 --> 00:27:13,000 voor het bespreken van regels op Wikipedia over afbeeldingen. En dan heb ik alleen nog de laatste slide, 300 00:27:13,000 --> 00:27:20,000 waarop nogmaals hartelijk dank staat voor uw aandacht. En daarmee zou ik het aan Ziko overhandigen voor de replica. 301 00:27:20,000 --> 00:27:32,000 Ja bedankt. Hoor je me? Ja, hoor je mij? OK. Ja, lieve Eva, hartelijk dank voor de zeer interessante lezing. 302 00:27:32,000 --> 00:27:40,000 Ik ben bang dat het debat geen erg spectaculair gevecht zal worden, in ieder geval niet vanwege het vriendschappelijke ruimtevaartbeleid. 303 00:27:40,000 --> 00:27:48,000 Maar ik ben het grotendeels eens met uw diagnose: ‘hoewel’. En dan zal ik aan het einde iets zeggen over de derde scriptie. 304 00:27:48,000 --> 00:27:53,000 Er valt nog veel te verbeteren op Wikipedia. Dit betekent dat ik vaak direct aan de therapie denk, 305 00:27:53,000 --> 00:27:59,000 maar ook moet stoppen bij de diagnose. Laten we dan eens kijken naar het artikel Elisabeth Böhm. 306 00:27:59,000 --> 00:28:06,000 Dus over het geheel genomen lijken sommige dingen eigenlijk vreemd, de vrouw als aanhangsel van de echtgenoot. 307 00:28:06,000 --> 00:28:12,000 Maar als ik beter kijk, is er een navigatiebalk met een foto en ontbreekt mevrouw Böhm. 308 00:28:13,000 --> 00:28:20,000 Dat is waar, maar er ontbreken ook andere. En de Wikipedia-auteur, je kunt altijd zien wie het zo transparant heeft gedaan, 309 00:28:20,000 --> 00:28:26,000 d.w.z. degene die ik ook ken, de Wikipedia-auteur had toen de keuze tussen een foto van mevrouw en meneer Böhm 310 00:28:26,000 --> 00:28:32,000 of degene die zij koos Foto met meneer Böhm en drie mannelijke familieleden. En toen dacht de auteur waarschijnlijk: 311 00:28:32,000 --> 00:28:37,000 ik maak de foto met de meeste gezichten. Dat is dus geen vrouwenhaat, tenzij 312 00:28:37,000 --> 00:28:45,000 je natuurlijk zou kunnen beargumenteren dat mevrouw Böhm individueel veel relevanter is dan de drie heren. 313 00:28:45,000 --> 00:28:52,000 En als het om therapie gaat, denk ik dat je met navigatiebalken toch het beste een foto kunt maken die alle elementen weergeeft. 314 00:28:52,000 --> 00:29:00,000 En als je er geen hebt, doe je het ook zonder. Dat had hier moeten gebeuren. Dus dat is eigenlijk een punt. 315 00:29:00,000 --> 00:29:07,000 Ja, en in de artikeltekst is er zelfs een sterke verwijzing naar de echtgenoot van Elisabeth Böhm. 316 00:29:07,000 --> 00:29:13,000 Therapie, je zou de tekst kunnen herschrijven. Maar dan vroeg ik mezelf af: zou ik dat durven? 317 00:29:13,000 --> 00:29:23,000 Omdat mijn gevoel zegt dat ik eerst de feiten beter moet kennen. Hoe zag het er uit in het huis van de Böhms en in het architectenbureau? 318 00:29:23,000 --> 00:29:28,000 En als ik het een klein beetje herformuleer, kan een uitspraak onjuist worden. 319 00:29:28,000 --> 00:29:37,000 Dan zou ik het nog eens in de literatuur moeten opzoeken. Maar ik vermoed dat de Wikipedia-auteur het artikel zeer gewetensvol heeft geschreven op basis van de literatuur. 320 00:29:37,000 --> 00:29:46,000 Zodat de beschuldigde stijl al voortkomt uit de gebruikte werken. En ja, Wikipedia is afhankelijk van literatuur. 321 00:29:46,000 --> 00:29:50,000 Niemand van ons kent Böhm persoonlijk. Dus wat moet je daar doen? 322 00:29:51,000 --> 00:29:58,000 Een ander onderwerp, de foto van Marie Curie. Moet de hoofdpersoon van een foto naar de kijker kijken? 323 00:29:58,000 --> 00:30:04,000 Of laten we het anders zeggen: moet de lemma-persoon naar de kijker kijken? En dat is een vraag op zich. 324 00:30:04,000 --> 00:30:13,000 Dat weet ik niet precies. Ik ken de regel niet eens. Ik geef in ieder geval toe dat het antwoord in de geciteerde discussie misschien wat papperig overkomt. 325 00:30:13,000 --> 00:30:16,000 En dat is niet goed voor de discussie. Ik begrijp dat. 326 00:30:16,000 --> 00:30:21,000 Sta mij toe een ander voorbeeld te gebruiken. Deze zomer heb ik, ik weet niet "heurig", is dat wat je zegt? 327 00:30:21,000 --> 00:30:28,000 Ik heb hier altijd mijn Oostenrijkshoedje van de Oostenrijkers. Nogmaals bedankt, Manfred. 328 00:30:28,000 --> 00:30:35,000 Dus werkte ik aan het artikel van deze zomer over de Titanic en dit schip met de ijsberg. 329 00:30:35,000 --> 00:30:40,000 En in het artikel stond een lange lijst van de prominente passagiers en daarna ook de rijke heren. 330 00:30:40,000 --> 00:30:52,000 Dit waren de "miljonairs" en de rijke dames waren de "echtgenoten van de miljonairs" of de eigenaar van het New Yorkse warenhuis Macy's, Isidor Straus en zijn vrouw Ida Straus. 331 00:30:52,000 --> 00:30:58,000 Dit relationele ding dat Eva heeft uitgewerkt. En toen hoorde ik een stem in mij. 332 00:30:58,000 --> 00:31:04,000 Wat moet dat betekenen? Ida Straus leefde als een miljonair. Wat is de zin van het slechte leven? 333 00:31:04,000 --> 00:31:12,000 Ik kan hier ook gewoon schrijven: Ida Straus, miljonair. Misschien was dat zelfs de stem van Eva in mijn achterhoofd die ik daar hoorde. 334 00:31:12,000 --> 00:31:19,000 Maar toen had ik een andere stem in mij. Ja, hoe was het juridisch en financieel in 1912? 335 00:31:19,000 --> 00:31:26,000 Ik ben geen expert op het gebied van sociaal recht, maar ik vermoed dat Ida Straus zelf geen miljoenen had. 336 00:31:26,000 --> 00:31:31,000 Op dat moment bepaalde alleen de man over het vermogen in het huwelijk. 337 00:31:31,000 --> 00:31:38,000 Als ik mevrouw Straus simpelweg "miljonair" zou noemen, zou ik de ongelijkheid negeren. 338 00:31:38,000 --> 00:31:46,000 En dus moet ik ook denken aan Marie Curie, die in het artikel niet altijd prominent als weduwe wordt afgeschilderd. 339 00:31:46,000 --> 00:31:54,000 Daar ben ik het mee eens. Maar ja, toen was het voor een vrouw heel belangrijk of ze echtgenote of weduwe was. 340 00:31:54,000 --> 00:32:01,000 Dit moet op passende wijze in het artikel worden behandeld. En hoe? Je moet erover praten en er wordt dan over onderhandeld. 341 00:32:01,000 --> 00:32:09,000 Ik zou overigens niet zeggen dat het artikel bedoeld is om de academische prestaties van de persoon te tonen, maar eerder zijn hele leven. 342 00:32:09,000 --> 00:32:17,000 Maar ja, natuurlijk zit je met de vraag in je hoofd: zou je het zo geschreven hebben als het een man was? De weduwnaar, de weduwnaar, de weduwnaar. 343 00:32:17,000 --> 00:32:25,000 Ik moet zeggen dat je derde stelling, Eva, scherper geformuleerd had kunnen worden. 344 00:32:25,000 --> 00:32:31,000 Ik denk dat de Wikimedia-beweging dringend de beeldcultuur naar een geheel nieuw niveau moet tillen. 345 00:32:31,000 --> 00:32:37,000 En je bericht heeft ons prachtig laten zien waar we nog meer op moeten letten. Hartelijk dank daarvoor. 346 00:32:37,000 --> 00:32:45,000 Ja, heel erg bedankt, Ziko. Misschien als antwoord op de replica. 347 00:32:45,000 --> 00:32:54,000 Ik zou dus natuurlijk denken dat het laatste punt dat je noemde geweldig zou zijn als er binnen Wikipedia meer discussie zou zijn over afbeeldingen en beeldculturen. 348 00:32:54,000 --> 00:33:03,000 Ik denk dat dit precies de richting is waarin het moet gaan. Zoals ik al zei, ter illustratie van het artikel op de regelpagina, zou ik een heel andere titel kiezen. 349 00:33:03,000 --> 00:33:14,000 Het moet dus echt duidelijk zijn dat beelden worden gebruikt om betekenissen in artikelen te construeren en dat bepaalde wereldbeelden worden gesuggereerd. 350 00:33:14,000 --> 00:33:26,000 Ik denk dus dat je de regels echt veel scherper en duidelijker zou kunnen formuleren, gebaseerd op de bevindingen van de visuele wetenschap, zonder zo'n naïeve opvatting van beelden te hebben. 351 00:33:27,000 --> 00:33:36,000 Afbeeldingen breken de tekst op, maar hebben geen functie meer. Ik overdrijf nu echt en breng de scherpte naar voren die sommige mensen in een ruzie verwachten. 352 00:33:36,000 --> 00:33:43,000 Maar ik denk dat er zeker nog verbetering nodig is om de regels specifieker te maken. 353 00:33:44,000 --> 00:33:54,000 Misschien nog een keer naar Elisabeth Böhm gaan. Ja, er zijn zeker historische feiten die bepaalde uitspraken in het artikel suggereren. 354 00:33:54,000 --> 00:34:05,000 Maar ik denk niet dat het gepast is als een architect haar artikelen uitsluitend structureert op basis van keerpunten in het gezin. 355 00:34:06,000 --> 00:34:17,000 Dat betekent omgaan met het huwelijk, de geboorte van zonen en het daarmee gepaard gaande ouderschapsverlof, ook al bestond dat toen nog niet. 356 00:34:17,000 --> 00:34:22,000 En door dergelijke formuleringen te gebruiken, bleek dat Böhm meer aanwezig was op kantoor. 357 00:34:22,000 --> 00:34:37,000 Dus vanuit mijn standpunt is dit een formulering die nogal respectloos is en die in het algemeen zowel haar gezinsverantwoordelijkheden als haar prestaties en verdiensten als architect niet voldoende respecteert. 358 00:34:37,000 --> 00:34:42,000 Precies, en dan is de vraag natuurlijk waarom dit ene beeld niet in haar is geïntegreerd. 359 00:34:42,000 --> 00:34:50,000 Ik moet zeggen dat het artikel intussen prachtig is herzien; naar mijn mening is er met heel weinig bewerkingen al veel bereikt. 360 00:34:50,000 --> 00:35:08,000 Om het antwoord op de replica af te ronden, zou ik er daarom op willen wijzen dat soms kleine veranderingen een zeer, zeer grote impact kunnen hebben en dat bijschriften en vooral natuurlijk afbeeldingen bij de constructie, bij de productie van betekenissen mag niet worden onderschat. 361 00:35:08,000 --> 00:35:13,000 Precies, daarmee overhandig ik het aan jou, Ziko, en ik kijk uit naar je presentatie. 362 00:35:13,000 --> 00:35:15,000 Ja bedankt. 363 00:35:15,000 --> 00:35:24,000 Dus vanuit het perspectief van een vreemde, ja, beste vrienden van kennis, hebben we gehoord dat de afbeeldingen op Wikipedia een artikel versterken. 364 00:35:24,000 --> 00:35:27,000 En nu foto 2, alstublieft. 365 00:35:27,000 --> 00:35:32,000 Maar ja, we gebruiken afbeeldingen niet altijd op een betekenisvolle en passende manier. 366 00:35:32,000 --> 00:35:42,000 Je hebt lange artikelen, maar nauwelijks foto's, of een onvoldoende onderschrift, of een gebruik van een afbeelding waarbij iemand echt niet goed heeft nagedacht, zoals we zullen zien. 367 00:35:42,000 --> 00:35:52,000 Mijn onderwerp is dus dat beelden belangrijk zijn, maar niet altijd onschadelijk en helaas worden de discussies erover soms overschaduwd door een houding die te ver gaat. 368 00:35:52,000 --> 00:35:59,000 Een afbeelding op Wikimedia Commons, een Congolees dorp in een zogenaamde volkerenshow. 369 00:35:59,000 --> 00:36:04,000 In Europa werden mensen uit andere delen van de wereld soms als dieren tentoongesteld. 370 00:36:05,000 --> 00:36:08,000 Ja, de foto lijkt voor veel mensen waarschijnlijk onschuldig. 371 00:36:08,000 --> 00:36:12,000 Geen naaktheid, geen geweld, geen bloedvergieten. 372 00:36:12,000 --> 00:36:18,000 Maar als mensen worden gereduceerd tot hun etnische showwaarde, is dat dan werkelijk onschadelijk? 373 00:36:18,000 --> 00:36:22,000 En moet ik de afbeelding überhaupt gebruiken, en zo ja, hoe? 374 00:36:22,000 --> 00:36:29,000 Kort over mij. Ik heb onder andere geschiedenis gestudeerd, gewerkt in beeldarchieven en ik plaats afbeeldingen in Wikipedia-artikelen. 375 00:36:29,000 --> 00:36:33,000 En ik doe hetzelfde met de Klexikon, de Wikipedia voor kinderen. 376 00:36:33,000 --> 00:36:41,000 En het nadenken over een goede beeldkeuze leidde mij naar de literatuur, zoals een bijdrage van de heer Ian Ramjohn. 377 00:36:45,000 --> 00:36:49,000 Ian Ramjohn maakt zich zorgen over de manier waarop arme landen op Wikipedia worden afgeschilderd. 378 00:36:49,000 --> 00:36:51,000 En hij schrijft: 379 00:37:03,000 --> 00:37:09,000 Als de competities worden beoordeeld door de ogen van het mondiale noorden, wordt het effect vergroot. 380 00:37:09,000 --> 00:37:14,000 Niemand wil prijzen uitdelen voor dingen die ze regelmatig in hun eigen achtertuin kunnen zien. 381 00:37:14,000 --> 00:37:23,000 Maar zolang de ontwikkelingslanden op Wikipedia door deze lens worden geportretteerd, blijven ze exotisch. 382 00:37:23,000 --> 00:37:26,000 Maar ja, antwoordde Florence Devouard. 383 00:37:26,000 --> 00:37:35,000 Ze behoort tot de organisatie Wiki loves Africa en legde verontwaardigd uit dat deze competitie juist het alledaagse verwelkomt. 384 00:37:35,000 --> 00:37:39,000 En drie tot vier mensen uit het mondiale noorden nemen deel aan de organisatie. 385 00:37:39,000 --> 00:37:45,000 De rest komt allemaal uit het zuiden. En ook de meeste juryleden komen uit Afrika. 386 00:37:45,000 --> 00:37:50,000 Bedoelde Ian Ramjohn een andere competitie? 387 00:37:50,000 --> 00:37:54,000 Ja, dat is het waarschijnlijk, antwoordde Ian Ramjohn schaapachtig. 388 00:37:54,000 --> 00:37:59,000 Hij schreef het bericht twee jaar geleden en kan het zich niet meer herinneren. 389 00:37:59,000 --> 00:38:08,000 Welnu, voor Wiki loves Earth geldt ook, zegt Florence Devouard, dat de meeste nationale winnaars in Afrikaanse landen daar vandaan komen. 390 00:38:08,000 --> 00:38:16,000 En waarom zouden we de winnende foto’s exotisch moeten noemen? Je probeert overal de mooiste plekken van een land te laten zien. 391 00:38:16,000 --> 00:38:20,000 Oei! Wat ging er mis? 392 00:38:20,000 --> 00:38:25,000 Ten eerste vind ik het moreel twijfelachtig om iets over de competities te veronderstellen. 393 00:38:25,000 --> 00:38:31,000 En zomaar, automatisch, zonder dat je er goed naar hebt gekeken. 394 00:38:31,000 --> 00:38:38,000 Ten tweede is het contraproductief omdat degenen die op deze manier worden aangevallen dan kunnen denken: wat ik ook doe, iedereen zal maar klagen. 395 00:38:38,000 --> 00:38:42,000 Waarom zou ik pleiten voor een meer mondiale Wikipedia? 396 00:38:42,000 --> 00:38:47,000 Ten derde is de houding problematisch voor het discours en nog een voorbeeld. 397 00:38:47,000 --> 00:38:51,000 Ian Ramjohn klaagt ook over een Wikipedia-discussie. 398 00:38:51,000 --> 00:38:56,000 Dus wat zou u moeten zien als u naar het woord Java zoekt? 399 00:38:56,000 --> 00:39:01,000 Het artikel over het Indonesische eiland of Java, de programmeertaal? 400 00:39:01,000 --> 00:39:08,000 En dan merkt hij op dat de verstandige mensen de overhand hebben gehad, zodat het lemma Java nog steeds het eiland is, 401 00:39:08,000 --> 00:39:13,000 maar dat het überhaupt ter sprake is gekomen getuigt van een fundamentele zwakte. 402 00:39:13,000 --> 00:39:21,000 Het is absurd: blanke mensen uit het mondiale noorden marginaliseren 150 miljoen inwoners van Java 403 00:39:21,000 --> 00:39:25,000 door hun verdiensten af te wegen tegen een programmeertaal. 404 00:39:25,000 --> 00:39:31,000 En eerst dacht ik: ja, maar de discussie was 15 jaar geleden. 405 00:39:31,000 --> 00:39:35,000 En ongeveer tien mensen namen deel aan de discussie en het eiland had de overhand. 406 00:39:36,000 --> 00:39:43,000 En toen zag ik dat Wikipedia, in het Engels, de Java-kwestie meerdere keren had besproken. 407 00:39:43,000 --> 00:39:50,000 Met aan beide kanten verstandige argumenten. Zo wordt het artikel over de programmeertaal 408 00:39:50,000 --> 00:39:55,000 aanzienlijk vaker bekeken dan dat over het eiland. 409 00:39:55,000 --> 00:40:02,000 Blijkbaar willen sommige mensen niet eens over dingen praten omdat ze al een vaste mening hebben. 410 00:40:02,000 --> 00:40:07,000 En iedereen die er nog een heeft, vertegenwoordigt een fundamentele zwakte. 411 00:40:07,000 --> 00:40:10,000 En hij wordt niet langer gezien als een individu met een eigen mening, 412 00:40:10,000 --> 00:40:14,000 maar alleen als een vertegenwoordiger van zijn huidskleur of zijn afkomst. 413 00:40:14,000 --> 00:40:19,000 Ook deze romanschrijver is niet bevorderlijk voor het discours. 414 00:40:19,000 --> 00:40:25,000 Ze klaagde op Twitter dat ‘een man’ het artikel over haar had verwijderd. 415 00:40:25,000 --> 00:40:30,000 Ja, en je kunt hier zien hoe het Twitter-publiek haar steunde. 416 00:40:32,000 --> 00:40:38,000 En wat denkt de organisatie “Whose Knowledge?”? 417 00:40:38,000 --> 00:40:44,000 Het wil ondervertegenwoordigde groepen en minderheden zichtbaarder maken. Prima. 418 00:40:44,000 --> 00:40:47,000 Citaat uit de video van Adele Vrana. 419 00:40:47,000 --> 00:40:51,000 'De meeste mensen die Wikipedia schrijven zijn nog steeds blanke mannen.' 420 00:40:51,000 --> 00:40:58,000 Siko Bouterse: 'En aangezien wie je bent van invloed is op wat je creëert, 421 00:40:58,000 --> 00:41:02,000 worden deze hiaten ook weerspiegeld in de inhoud van Wikipedia. 422 00:41:02,000 --> 00:41:06,000 Zo is er voor elke aflevering van The Simpsons een Wikipedia-artikel. 423 00:41:06,000 --> 00:41:08,000 Militaire geschiedenis ook behoorlijk goed. 424 00:41:08,000 --> 00:41:12,000 Ook de berichtgeving over vrouwelijke pornosterren is prima.' 425 00:41:12,000 --> 00:41:19,000 Vrana: 'Ja, maar er ontbreken nog steeds talloze biografieën van Braziliaanse vrouwelijke wetenschappers 426 00:41:19,000 --> 00:41:24,000 of activisten.' - Ja, vraag ik mij af, wat is het nut van zo'n polemiek 427 00:41:24,000 --> 00:41:29,000 die in een giechelige stemming wordt gepresenteerd? Wil je een bevolkingsgroep in diskrediet brengen 428 00:41:29,000 --> 00:41:35,000 door te zeggen dat zij voortdurend aan seks denken? We kennen hiervan historische voorbeelden. 429 00:41:35,000 --> 00:41:42,000 Zeker, ze willen zeggen: wij tegen zij. Maar doet dit recht aan de individuele Wikipedia-auteur? 430 00:41:42,000 --> 00:41:47,000 Iemand die nog nooit een artikel over pornosterren heeft geschreven? 431 00:41:47,000 --> 00:41:52,000 En trouwens, ik heb ooit naar Wikipedia-categorieën gekeken en het resultaat is dat er 432 00:41:52,000 --> 00:41:59,000 23.000 artikelen voor wetenschappers zijn en 512 voor pornoactrices. 433 00:41:59,000 --> 00:42:07,000 Is het artikel van Ian Ramjohn dus pure polemiek voor de prullenbak? 434 00:42:07,000 --> 00:42:11,000 Nee, het is legitiem om vragen over exotisme te stellen. 435 00:42:11,000 --> 00:42:17,000 Dus of foto's opzettelijk het andere, het vreemde laten zien. 436 00:42:17,000 --> 00:42:20,000 Want een foto maken is altijd een inspanning. 437 00:42:20,000 --> 00:42:23,000 Natuurlijk is dit tegenwoordig veel gemakkelijker dan 100 jaar geleden. 438 00:42:23,000 --> 00:42:27,000 Maar natuurlijk heb ik de neiging om mijn mobiele telefoon tevoorschijn te halen voor het ongewone. 439 00:42:27,000 --> 00:42:33,000 Bijvoorbeeld als er verse sneeuw in de tuin is gevallen en niet als de sneeuw weer aan het smelten is. 440 00:42:33,000 --> 00:42:42,000 En op Wikipedia laat ik in een artikel over een dorp een bijzonder gebouw zien, geen gewoon gebouw. 441 00:42:43,000 --> 00:42:47,000 Een afbeelding uit het artikel over Ghana. 442 00:42:47,000 --> 00:42:50,000 De man werkt op een traditioneel weefgetouw. 443 00:42:50,000 --> 00:42:52,000 Is dat nu erg? 444 00:42:52,000 --> 00:42:56,000 Wil je liever iemand laten zien die aan een moderne machine werkt? 445 00:42:56,000 --> 00:43:01,000 Wat is een typische maaltijd in Nederland? De beroemde haring? 446 00:43:01,000 --> 00:43:05,000 Misschien. McDonald's daarentegen is misschien niet typisch voor het land, 447 00:43:05,000 --> 00:43:10,000 maar is veel representatiever voor wat er werkelijk wordt gegeten. 448 00:43:11,000 --> 00:43:18,000 Het is zeker niet onbelangrijk wie naar een foto kijkt en welke voorkennis hij heeft om een foto te classificeren. 449 00:43:18,000 --> 00:43:21,000 Traditionele cultuur bijvoorbeeld. 450 00:43:21,000 --> 00:43:27,000 Velen van ons hier zijn al eerder in Oostenrijk geweest, dus de aanwezigen [op WikiCon] hebben dat zeker gedaan. 451 00:43:27,000 --> 00:43:32,000 En je weet dat Oostenrijkers niet allemaal zo rondlopen. 452 00:43:32,000 --> 00:43:36,000 Maar hoe zit het met de foto uit Kenia? Wat zie ik daar? 453 00:43:36,000 --> 00:43:40,000 Het dagelijks leven, traditie, re-enactment? 454 00:43:40,000 --> 00:43:44,000 Re-enactment is dus een traditie die is doorbroken. 455 00:43:44,000 --> 00:43:48,000 Nou, ik weet niet veel over Kenia en mijn lezers misschien ook niet. 456 00:43:48,000 --> 00:43:53,000 En daarom is het zo belangrijk dat we goede beelduitleg hebben op Commons. 457 00:43:53,000 --> 00:43:57,000 Ja, en helaas was de beschrijving van de afbeelding op Commons erg kort. 458 00:43:57,000 --> 00:44:02,000 Misschien omdat het voor de fotograaf wel duidelijk was wat er was. 459 00:44:02,000 --> 00:44:07,000 Strikt genomen zou je tegen jezelf moeten zeggen: als ik niet precies begrijp wat ik zie, 460 00:44:07,000 --> 00:44:11,000 dan zou ik het beeld eigenlijk niet moeten gebruiken. Jammer. 461 00:44:11,000 --> 00:44:17,000 Nou, dat is nu één afbeelding. Maar wat ik nog belangrijker vind, is de totaalindruk die ontstaat. 462 00:44:17,000 --> 00:44:21,000 In een artikel over een land zie je vaak dit soort afbeeldingen. 463 00:44:21,000 --> 00:44:23,000 En vooral als het om arme landen gaat. 464 00:44:23,000 --> 00:44:29,000 Er wordt koffie geplant, grondstoffen worden gewonnen en je ziet prachtige zandstranden. 465 00:44:29,000 --> 00:44:35,000 Oké, dat is er. En export en toerisme zijn echt belangrijke sectoren van de economie. 466 00:44:35,000 --> 00:44:38,000 Waarom zou je dat niet laten zien? 467 00:44:38,000 --> 00:44:42,000 Ik ben bang dat dat een bepaalde indruk wekt. 468 00:44:42,000 --> 00:44:48,000 Het hele land lijkt alleen voor ons, mensen in de rijke landen, te bestaan. 469 00:44:48,000 --> 00:44:54,000 Daar gaan wij op vakantie en daar komen voor ons de mooie producten vandaan. 470 00:44:55,000 --> 00:44:58,000 Dus met de Klexikon probeerde ik een dergelijke indruk te vermijden. 471 00:44:58,000 --> 00:45:03,000 Hier is het artikel over Barbados. Prachtige stranden, geweldig. 472 00:45:03,000 --> 00:45:09,000 Maar toen voegde ik er ook een viering van de Onafhankelijkheidsdag of het parlementsgebouw aan toe. 473 00:45:12,000 --> 00:45:16,000 Waar komen de afbeeldingen die we op Wikimedia Commons vinden eigenlijk vandaan? 474 00:45:16,000 --> 00:45:21,000 Het maakt niet uit of de foto's een rijk land of een arm land tonen. 475 00:45:21,000 --> 00:45:26,000 De fotograaf is doorgaans een man uit het rijke noorden. Omgekeerd is dit veel zeldzamer. 476 00:45:26,000 --> 00:45:31,000 Dat vind ik jammer en ik denk dat het goed zou zijn als mensen uit arme landen aangemoedigd zouden worden 477 00:45:31,000 --> 00:45:35,000 om in rijke landen foto’s te maken. 478 00:45:35,000 --> 00:45:39,000 Maar laten we over twee punten heel duidelijk zijn. 479 00:45:39,000 --> 00:45:44,000 Ten eerste wat de fotograaf betreft en ten tweede wat het onderwerp betreft. 480 00:45:45,000 --> 00:45:49,000 Dit is Diego Delso uit Spanje. 481 00:45:49,000 --> 00:45:54,000 Hij heeft in veel landen talloze foto's van hoge kwaliteit gemaakt en geüpload. 482 00:45:54,000 --> 00:46:00,000 Ha, een rijke, blanke, bevoorrechte man uit het mondiale noorden. 483 00:46:00,000 --> 00:46:08,000 Zijn camerablik reproduceert koloniale stereotypen en zo manipuleert hij de domme Wikipedia-lezers. 484 00:46:08,000 --> 00:46:10,000 Is dat zo? 485 00:46:11,000 --> 00:46:15,000 Nee, Diego Delso is niet het probleem. 486 00:46:15,000 --> 00:46:19,000 Hij doet alles op vrijwillige basis en zou zichzelf de moeite met Commons kunnen besparen. 487 00:46:19,000 --> 00:46:25,000 Zijn foto’s zijn geen probleem, ze maken deel uit van de oplossing. Ze maken het illustreren eenvoudiger. 488 00:46:25,000 --> 00:46:28,000 Wat zou het alternatief zijn? 489 00:46:28,000 --> 00:46:32,000 Op Commons zijn dit vaak afbeeldingen van de nationale overheid, 490 00:46:32,000 --> 00:46:36,000 de Amerikaanse marine of de Russische ambassade. 491 00:46:36,000 --> 00:46:40,000 Ik wil niet beweren dat dergelijke foto's automatisch onaanvaardbaar zijn, 492 00:46:40,000 --> 00:46:45,000 maar juist zij zijn gemaakt met een specifieke bedoeling. 493 00:46:45,000 --> 00:46:50,000 Dat is precies waarom ik zo'n grote fan ben van Wiki loves Africa. 494 00:46:50,000 --> 00:46:54,000 Met de vele beelden van de afgelopen jaren hebben we 495 00:46:54,000 --> 00:46:57,000 als mondiale beweging echt een grote stap voorwaarts gezet. 496 00:46:57,000 --> 00:47:02,000 En de meeste foto’s zijn afkomstig van mensen uit de betreffende landen. 497 00:47:02,000 --> 00:47:07,000 Wat de inhoud betreft, laten we duidelijk zijn over het volgende. 498 00:47:07,000 --> 00:47:12,000 Als historicus ben ik me ervan bewust dat je je moet afvragen 499 00:47:12,000 --> 00:47:17,000 wie een foto heeft gemaakt, waarom, wat de culturele en sociale context is, enz. 500 00:47:17,000 --> 00:47:19,000 Ja. 501 00:47:19,000 --> 00:47:28,000 Maar je moet ook heel duidelijk zeggen dat dit gewoon een plaatje van een molen is. 502 00:47:28,000 --> 00:47:32,000 Maakt het eigenlijk uit wie de foto heeft gemaakt? 503 00:47:32,000 --> 00:47:36,000 Is hij een inwoner van de stad of is hij op doorreis? 504 00:47:36,000 --> 00:47:39,000 Is de foto gemaakt door een vrouw of een man? 505 00:47:39,000 --> 00:47:43,000 Zou het er echt in elk geval heel anders uitzien? 506 00:47:43,000 --> 00:47:46,000 Kritische vragen kunnen belangrijk zijn, maar je kunt betwijfelen 507 00:47:46,000 --> 00:47:54,000 of iemands achtergrond altijd en overal uiterst relevant is. 508 00:47:54,000 --> 00:48:01,000 Hier zien we Wikipedia in het Nederlands, artikel Soedan, vrouwenbesnijdenis. 509 00:48:01,000 --> 00:48:04,000 Ja, wat is hier het echte probleem? 510 00:48:04,000 --> 00:48:08,000 We vragen ons natuurlijk af: heeft de gefotografeerde persoon toestemming gegeven 511 00:48:08,000 --> 00:48:10,000 voor het uploaden van de afbeelding naar Commons? 512 00:48:10,000 --> 00:48:15,000 En het allerbelangrijkste: zou ze eigenlijk graag zien dat dit beeld gebruikt wordt? 513 00:48:15,000 --> 00:48:21,000 Een wreed onderwerp dus waarbij ze vrolijk in de camera kijkt? 514 00:48:21,000 --> 00:48:27,000 Dit gaat over persoonlijke rechten en dit gebruik zou overal ter wereld een probleem zijn. 515 00:48:27,000 --> 00:48:31,000 Heeft dit iets te maken met arme en rijke landen? 516 00:48:33,000 --> 00:48:35,000 Nou, ik geef toe, misschien wel. 517 00:48:35,000 --> 00:48:40,000 Het zou kunnen dat sommige fotografen uit rijke landen 518 00:48:40,000 --> 00:48:43,000 de persoonlijke rechten in eigen land niet durven 519 00:48:43,000 --> 00:48:47,000 te schenden. Omdat een gefotografeerde met de advocaat zou kunnen komen. 520 00:48:47,000 --> 00:48:51,000 En als de getroffenen in het mondiale zuiden wonen, ben je misschien wat lakser 521 00:48:51,000 --> 00:48:54,000 omdat ze zich nauwelijks een advocaat kunnen veroorloven. 522 00:48:54,000 --> 00:48:58,000 Ik benadruk dat dit slechts een hypothese van mij is, ik wil niets veronderstellen, 523 00:48:58,000 --> 00:49:02,000 maar hoe dan ook, het probleem van persoonlijke rechten, 524 00:49:02,000 --> 00:49:06,000 dat wil zeggen straatfotografie, en het hele probleem, 525 00:49:06,000 --> 00:49:09,000 het probleem van persoonlijke rechten is een algemeen probleem, 526 00:49:09,000 --> 00:49:15,000 maar het zou kunnen dat daar bovenop het probleem van arm en rijk is. 527 00:49:16,000 --> 00:49:21,000 De Wikimedia-beweging ziet zichzelf als een educatieve beweging. 528 00:49:21,000 --> 00:49:23,000 Laten we hiervoor het woord Bildung gebruiken. 529 00:49:23,000 --> 00:49:28,000 Het doel van Bildung is om mensen te helpen om zichzelf, maar ook hun omgeving en uiteraard hun medemensen 530 00:49:28,000 --> 00:49:31,000 beter te begrijpen . 531 00:49:31,000 --> 00:49:34,000 Zelfrealisatie in sociale verantwoordelijkheid. 532 00:49:34,000 --> 00:49:38,000 En dat past goed bij het traditionele ideaal van de encyclopedie. 533 00:49:38,000 --> 00:49:41,000 Het verzamelt niet alleen maar stukjes feiten, 534 00:49:41,000 --> 00:49:45,000 maar eerder kennis die de lezer helpt zich te oriënteren in zijn wereld. 535 00:49:45,000 --> 00:49:51,000 Ja, en we zien vaak een spanning. 536 00:49:51,000 --> 00:49:56,000 Ten eerste zijn we allemaal mensen met universele mensenrechten. 537 00:49:56,000 --> 00:50:00,000 Ten tweede kunnen mensen zien 538 00:50:00,000 --> 00:50:03,000 of gezien worden als leden van groepen, dat wil zeggen collectieven. 539 00:50:03,000 --> 00:50:07,000 En ten derde willen we het individu zien, het individu. 540 00:50:08,000 --> 00:50:11,000 En 541 00:50:11,000 --> 00:50:13,000 over hoe een goede balans tussen deze gebieden eruit ziet, lopen de meningen uiteen. 542 00:50:13,000 --> 00:50:17,000 En de mening van een persoon hangt onder meer af 543 00:50:17,000 --> 00:50:22,000 van zijn persoonlijke situatie of de mondiale status van zijn groep. 544 00:50:24,000 --> 00:50:28,000 En deze spanning, nou ja, dat zien we ook in de Wikimedia-beweging. 545 00:50:28,000 --> 00:50:30,000 En vandaar mijn scripties. 546 00:50:30,000 --> 00:50:34,000 Zoals we hebben gezien valt er nog veel te verbeteren op Wikimedia Commons. 547 00:50:34,000 --> 00:50:36,000 Trefwoord open brief. 548 00:50:36,000 --> 00:50:38,000 En op Wikipedia. 549 00:50:38,000 --> 00:50:44,000 En ja, waar iemand vandaan komt en tot welke collectieven hij of zij behoort, ja, dat is belangrijk. 550 00:50:44,000 --> 00:50:48,000 En het kan invloed hebben op de manier waarop hij fotografeert. 551 00:50:48,000 --> 00:50:52,000 Maar dat betekent niet dat een dergelijke invloed automatisch altijd bestaat. 552 00:50:52,000 --> 00:50:55,000 Wie enkel aandacht besteedt aan iemands achtergrond 553 00:50:55,000 --> 00:51:00,000 en diens meningen of foto's dienovereenkomstig beoordeelt of veroordeelt, 554 00:51:00,000 --> 00:51:03,000 argumenteert ad hominem. 555 00:51:03,000 --> 00:51:08,000 Maar een individu heeft het recht om als zodanig gezien te worden. 556 00:51:08,000 --> 00:51:11,000 En ja, als mensen opkomen voor een collectief, of 557 00:51:11,000 --> 00:51:15,000 het nu vrouwen zijn of mensen in arme landen, dan is dat goed. 558 00:51:15,000 --> 00:51:18,000 Ze kunnen echter hun doel overschrijden 559 00:51:18,000 --> 00:51:21,000 door andere collectieven te vernederen. 560 00:51:21,000 --> 00:51:25,000 En dat zou betekenen dat het kind met het badwater wordt weggegooid. 561 00:51:25,000 --> 00:51:27,000 Bedankt. 562 00:51:34,000 --> 00:51:39,000 Ja, heel erg bedankt, beste Ziko, voor de spannende presentatie. 563 00:51:39,000 --> 00:51:42,000 Precies, nu zijn we allebei weer in de zaal te zien. 564 00:51:42,000 --> 00:51:47,000 En in mijn reactie op uw presentatie wil ik graag 565 00:51:47,000 --> 00:51:51,000 ingaan op uw stellingen, die u zojuist nog eens heeft laten zien. 566 00:51:51,000 --> 00:51:56,000 De eerste was: ja, de Wikimedia-beweging moet beter omgaan met afbeeldingen. 567 00:51:56,000 --> 00:51:58,000 Daar ben ik het absoluut mee eens. 568 00:51:58,000 --> 00:52:01,000 Ik denk dat we bijna met één stem spreken. 569 00:52:01,000 --> 00:52:05,000 En daarom wil ik niet al te kritisch zijn op dit proefschrift, 570 00:52:05,000 --> 00:52:08,000 maar het juist nog meer ondersteunen. 571 00:52:08,000 --> 00:52:12,000 Ik denk dat wat je nu heel goed hebt laten zien met je lezing, is 572 00:52:12,000 --> 00:52:19,000 dat de illustratie van Wikipedia-artikelen veel aspecten omvat 573 00:52:19,000 --> 00:52:24,000 die betrekking hebben op de juridische dimensie rond afbeeldingen, 574 00:52:24,000 --> 00:52:29,000 op een ethisch-morele en ook op een culturele dimensie. 575 00:52:29,000 --> 00:52:34,000 Naar mijn mening moeten de illustraties van Wikipedia-artikelen 576 00:52:34,000 --> 00:52:37,000 veel nauwkeuriger worden onderzocht. 577 00:52:37,000 --> 00:52:42,000 En je hebt op een gegeven moment al gezegd 578 00:52:42,000 --> 00:52:47,000 dat de beeldinventarisaties op Wikimedia misschien tot op zekere hoogte het probleem zijn. 579 00:52:47,000 --> 00:52:53,000 Ik denk dat ik ooit heb gezegd dat de beelduitleg op Wikimedia relatief kort is. 580 00:52:53,000 --> 00:52:57,000 Vanuit mijn gezichtspunt is dit een zeer centraal punt dat ik hier nogmaals wil bespreken. 581 00:52:57,000 --> 00:53:01,000 Ik heb de indruk, maar laat de discussie mijn ongelijk bewijzen, 582 00:53:01,000 --> 00:53:09,000 dat Wikimedia veel meer context voor de afbeeldingen moet bieden. 583 00:53:09,000 --> 00:53:13,000 Er moeten dus echt nauwkeurigere afbeeldingsbeschrijvingen komen, 584 00:53:13,000 --> 00:53:18,000 zodat degenen die de afbeeldingen vervolgens gebruiken voor de Wikipedia-artikelen 585 00:53:18,000 --> 00:53:24,000 om ze van afbeeldingen te voorzien, nog nauwkeuriger kunnen zijn over 586 00:53:24,000 --> 00:53:26,000 waar de afbeelding eigenlijk vandaan komt. 587 00:53:26,000 --> 00:53:30,000 Ik denk dat dit bij veel onderwerpen een rol speelt, maar bij sommige niet. 588 00:53:30,000 --> 00:53:36,000 Dus natuurlijk, Ziko, ik denk ook dat het bij een molen zeker niet zo problematisch is 589 00:53:36,000 --> 00:53:37,000 wie de foto heeft gemaakt. 590 00:53:37,000 --> 00:53:42,000 Maar er zijn heel, heel veel onderwerpen, en je hebt daar ook goede voorbeelden van laten zien, 591 00:53:42,000 --> 00:53:47,000 waarbij je heel goed moet nadenken over welke beeldinventarisaties je opneemt. 592 00:53:47,000 --> 00:53:51,000 En naar mijn mening spelen beelden van het mondiale zuiden een grote rol. 593 00:53:52,000 --> 00:53:58,000 En je hebt hier ook een fotograaf genoemd die naar jouw mening 594 00:53:58,000 --> 00:54:01,000 een grote bijdrage heeft geleverd aan het illustreren van Wikipedia. 595 00:54:01,000 --> 00:54:06,000 In mijn ogen speelt het ook een rol dat je de fotografen niet zomaar hun gang laat gaan, 596 00:54:06,000 --> 00:54:08,000 ook al leveren ze al een mooie bijdrage, 597 00:54:08,000 --> 00:54:14,000 maar dat je fotografen misschien gaat trainen in 598 00:54:14,000 --> 00:54:18,000 wat ze met hun foto’s kunnen doen. foto's verstrekken. 599 00:54:18,000 --> 00:54:23,000 Namelijk niet deze naïeve opvatting dat ze simpelweg de wereld weergeven 600 00:54:23,000 --> 00:54:31,000 en Wikipedia illustreren en teksten opfleuren, maar dat ze 601 00:54:31,000 --> 00:54:38,000 met hun afbeeldingen ook bepaalde wereldbeelden van de wereld presenteren, vooral als het gaat om bepaalde onderwerpen 602 00:54:38,000 --> 00:54:41,000 zoals de discussie over het mondiale zuiden. . 603 00:54:41,000 --> 00:54:47,000 Ik denk dus dat een bepaald perspectief, een eurocentrisch perspectief, 604 00:54:47,000 --> 00:54:53,000 een rol speelt in Wikipedia. Mijn oproep is dus dat er zeker 605 00:54:53,000 --> 00:54:59,000 een discussie over beeldinventarisaties op Wikipedia moet blijven bestaan, veel intensiever dan voorheen. 606 00:54:59,000 --> 00:55:05,000 Ontwikkel ook een soort raster of richtlijn over welke aspecten een rol spelen. 607 00:55:05,000 --> 00:55:10,000 Zoals ik al zei, denk ik dat de culturele achtergrond van een fotograaf 608 00:55:10,000 --> 00:55:16,000 een grote rol speelt. Je moet ook de juridische aspecten uitleggen, 609 00:55:16,000 --> 00:55:21,000 zoals je zei of liet zien, de foto van een vrouw die er misschien helemaal niet over geïnformeerd is, 610 00:55:21,000 --> 00:55:26,000 dat het nu in de context van straatfotografie ineens op Wikipedia terecht komt. 611 00:55:26,000 --> 00:55:34,000 Naar mijn mening zou dit alles beschikbaar moeten worden gesteld aan 612 00:55:34,000 --> 00:55:41,000 de vele fotografen die misschien professionele, semi-professionele of zelfs privéfoto's maken, om 613 00:55:41,000 --> 00:55:46,000 de kwaliteit van de beeldinventarisaties op Wikimedia en dus ook op Wikipedia te beïnvloeden. 614 00:55:46,000 --> 00:55:51,000 Dus dat zou mijn grote oproep zijn, nu ook na het luisteren naar je presentatie, 615 00:55:51,000 --> 00:55:58,000 meer discussies over de verschillende dimensies, aspecten van beelden die relevant zijn, zoals ik al zei juridisch, 616 00:55:58,000 --> 00:56:04,000 ethisch, moreel, cultureel en zelfs meer training. Ik denk dat er mensen zullen zijn die 617 00:56:04,000 --> 00:56:12,000 mensen kunnen trainen in gevoelige onderwerpen over het mondiale zuiden of over groepen die fundamenteel ondervertegenwoordigd zijn op Wikipedia, 618 00:56:12,000 --> 00:56:20,000 zoals vrouwen, over wat belangrijke aspecten zijn bij het produceren van nieuwe afbeeldingen. 619 00:56:20,000 --> 00:56:28,000 En dan ook, zoals ik al zei, het aspect dat, naar mijn mening, veel afbeeldingen op Wikimedia gedecontextualiseerd zijn 620 00:56:29,000 --> 00:56:35,000 en, zoals ik eerder in mijn lezing zei, een groot betekenispotentieel hebben 621 00:56:35,000 --> 00:56:41,000 en, naar mijn mening, gedeeltelijk geïntegreerd zijn in Wikipedia op een disfunctionele manier. 622 00:56:41,000 --> 00:56:46,000 Dit moet indien mogelijk worden vermeden, om hier het bewustzijn te creëren, zoals ik al zei, 623 00:56:46,000 --> 00:56:51,000 dat beelden niet alleen de boel verlichten, maar ook een beslissende invloed hebben op 624 00:56:51,000 --> 00:56:57,000 hoe de teksten worden waargenomen en hoe betekenis wordt gereconstrueerd, anders dan tikken. 625 00:56:57,000 --> 00:57:01,000 Precies, dus ik geef het je Ziko terug als je wilt. 626 00:57:01,000 --> 00:57:07,000 Ja, heel erg bedankt voor deze classificatie, het is echt heel belangrijk. 627 00:57:07,000 --> 00:57:12,000 Ik dacht voor het lexicon dat het geschikt moest zijn voor kinderen 628 00:57:12,000 --> 00:57:18,000 en toen bedacht ik criteria, zoals ik ga naar Wikimedia Commons 629 00:57:18,000 --> 00:57:24,000 en probeer dan goede foto's te kiezen en ik wil er een langer artikel over maken voor mijn YouTube-kanaal. 630 00:57:24,000 --> 00:57:28,000 Je merkt bij Wikimedia Commons dat er sprake is van een soort automatische vooringenomenheid, 631 00:57:28,000 --> 00:57:33,000 dus als ik een foto van een dokter zoek, is het meestal een man met een lichte huidskleur 632 00:57:33,000 --> 00:57:38,000 en moet je extra tijd investeren als je wat diversiteit wilt hebben . 633 00:57:38,000 --> 00:57:43,000 Mijn sleutelwoord hiervoor is eigenlijk de kwaliteit van de encyclopedie. 634 00:57:43,000 --> 00:57:50,000 Er zijn waked en anti-woke en dat soort discussies, ik kan er niet zoveel mee. 635 00:57:50,000 --> 00:57:56,000 Ik wil een goede kwaliteit maken, een kwalitatieve encyclopedie en als ik nu een artikel heb 636 00:57:56,000 --> 00:58:04,000 over neuzen, ogen, armen, voeten, waar je alleen maar mensen met een lichte huidskleur ziet, dan zou de encyclopedie niet van hoge kwaliteit zijn. 637 00:58:04,000 --> 00:58:13,000 Dat is ongeveer mijn aanpak en het is echt niet eenvoudig om voeten te vinden op basis van huidskleur. 638 00:58:13,000 --> 00:58:18,000 Dat is echt ongelooflijk en ik weet niet of het aan de indexering ligt of aan andere zaken. 639 00:58:18,000 --> 00:58:22,000 We hebben zoveel problemen bij Wikimedia Commons over hoe we het kunnen verbeteren. 640 00:58:22,000 --> 00:58:27,000 Er is sprake van een soort automatische vooringenomenheid en als ik bijvoorbeeld in Schoorsteenvegen 641 00:58:27,000 --> 00:58:33,000 een mooie foto tegenkom van een vrouw die momenteel schoorsteenveger leert, 642 00:58:33,000 --> 00:58:39,000 dan neem ik dat liever, zelfs als er misschien andere betere zijn. foto's van mannen, 643 00:58:39,000 --> 00:58:44,000 maar dan neem ik die en dan weet ik dat ik in andere artikelen de luxe niet heb, 644 00:58:44,000 --> 00:58:47,000 zoveel keuze heb ik niet, maar zo probeer ik dat tegen te gaan 645 00:58:47,000 --> 00:58:54,000 en wat voor gedachten je hebt in je hoofd hebt, dat wil zeggen: ja, ja, en het kost gewoon ontzettend veel tijd. 646 00:58:54,000 --> 00:59:00,000 Als ik op dat soort dingen let, kost de illustratie misschien twee of drie keer zoveel tijd als normaal, 647 00:59:00,000 --> 00:59:05,000 maar op de een of andere manier heb ik nog steeds de trots dat ik tegen mezelf zeg: geweldig nu, het is het waard, 648 00:59:05,000 --> 00:59:10,000 ook al ziet het resultaat er nu goed uit en ziet er niet geweldig uit. 649 00:59:11,000 --> 00:59:18,000 Maak een foto, upload hem, indexeer hem, zoek hem, selecteer hem, ondertitel hem, beeld-beeldrelatie, beeld-tekstrelatie 650 00:59:18,000 --> 00:59:23,000 en wat er in het hoofd van de lezer zit, het exotische is op de een of andere manier ook wat de lezers dan in hun hoofd hebben, 651 00:59:23,000 --> 00:59:28,000 zoals ze classificeren wel, trefwoord Oostenrijk en Kenia, waar we dan bij de Oostenrijkers vanuit gaan, 652 00:59:28,000 --> 00:59:33,000 tja, die lopen niet altijd in klederdracht rond, dat is wel een dingetje. 653 00:59:33,000 --> 00:59:37,000 Ik heb soms de indruk, ik weet het niet, dat 654 00:59:37,000 --> 00:59:43,000 de auteurs bij uitstekende artikelen meestal aandacht hebben besteed aan goede illustraties, maar verder heb ik de indruk dat 655 00:59:43,000 --> 00:59:48,000 de illustraties misschien niet zo prestigieus zijn of dat er op de een of andere manier het initiatief is, 656 00:59:48,000 --> 00:59:57,000 Wikipedia, WPWP, dat de Wikipedia-artikelen geïllustreerd moeten worden, dat komt niet helemaal uit de lucht vallen. 657 00:59:57,000 --> 01:00:03,000 Nog één ding: je hebt de juridische en ethisch-morele aspecten beschreven, ja als het om juridische zaken gaat, 658 01:00:03,000 --> 01:00:08,000 denk ik dat we daar heel goed in moeten zijn en veel Wikipedianen zijn zich daar al van bewust 659 01:00:08,000 --> 01:00:13,000 en ze weten dat veel van de foto's die we krijgen die zijn er eigenlijk, ze zouden eigenlijk niet op Wikimedia Commons moeten staan, 660 01:00:13,000 --> 01:00:18,000 dan laat je het altijd aan de volgende gebruikers over, zodat zij dan nadenken over persoonlijke rechten. 661 01:00:18,000 --> 01:00:22,000 Maar ja, als het om ethische en morele aspecten gaat, denk ik dat we moeten nadenken over een beeldcultuur, 662 01:00:22,000 --> 01:00:30,000 hoe willen we zijn als gemeenschap die met beelden omgaat en dan kunnen we Romeinser zijn dan de paus, 663 01:00:30,000 --> 01:00:38,000 dus onze ethische richtlijnen kunnen veel strenger zijn dan de wettelijke, waarom niet? Hartelijk dank. 664 01:00:42,000 --> 01:00:49,000 Bedankt Ziko, bedankt Eva. We hebben nu nog ruim een half uur over voor de discussie, 665 01:00:49,000 --> 01:00:53,000 als er tenminste verzoeken zijn om hier in de zaal te spreken. 666 01:00:54,000 --> 01:01:00,000 Ah, oké, dus als je wilt, kun je naar voren komen, dan kunnen ze jou ook zien. 667 01:01:05,000 --> 01:01:11,000 Bedankt, ik vraag het op basis van anonimiteit. Ik wilde alleen een paar opmerkingen maken over de praktijk van het illustreren, 668 01:01:11,000 --> 01:01:16,000 omdat ik ook lange teksten schrijf en deze zo intensief mogelijk probeer te illustreren. 669 01:01:16,000 --> 01:01:21,000 En uitgaande van Ziko, van de foto die je liet zien, waar je drie foto's had, 670 01:01:21,000 --> 01:01:28,000 aardbeien in Ecuador, daarna de zwavelmijnen in Indonesië en dit strand in Jamaica, denk ik dat het was 671 01:01:28,000 --> 01:01:36,000 waar je zei dat het clichés of exotisme laat zien. Wat mij opviel aan alle foto's die je liet zien, 672 01:01:36,000 --> 01:01:43,000 is dat je nooit echt hebt beschreven welke bijschriften er eigenlijk onder stonden, 673 01:01:43,000 --> 01:01:49,000 waardoor je je afvraagt of sommige dingen die op het eerste gezicht problematisch lijken, 674 01:01:49,000 --> 01:01:54,000 daadwerkelijk via het bijschrift kunnen worden weergegeven of dat dit ook is vastgelegd. 675 01:01:54,000 --> 01:02:00,000 En ten tweede is het niet alleen belangrijk dat een afbeelding rechtsboven in artikelen staat, 676 01:02:00,000 --> 01:02:11,000 maar ook dat afbeeldingen aan rubrieken worden toegewezen. En ik weet bijvoorbeeld ook waarom deze zwavelwinning in Indonesië als 677 01:02:11,000 --> 01:02:20,000 exotisch wordt beschouwd, maar als het gaat om de illustratie van het gedeelte over de Indonesische export, 678 01:02:20,000 --> 01:02:29,000 is dit beeld gewoon heel goed. Zoals ik al zei, en ik denk ook dat dit een opmerking voor de spreker is, 679 01:02:29,000 --> 01:02:37,000 is de positionering van het beeld in het artikel echt belangrijk, en bijvoorbeeld ook dat je de moed hebt, 680 01:02:37,000 --> 01:02:44,000 dat je dapper genoeg bent, om een artikel zonder inleidende afbeelding, als je geen geschikte inleidende afbeelding hebt, 681 01:02:44,000 --> 01:02:54,000 maar illustreer deze gewoon in de hoofdtekst van het artikel. Als laatste opmerking: hoewel we de voeten niet per kleurcategorie hebben, 682 01:02:54,000 --> 01:03:01,000 denk ik dat je nog steeds veel meer met fotogalerijen kunt werken dan doorgaans wordt gedaan. 683 01:03:01,000 --> 01:03:09,000 Mijn ervaring is dat als je 684 01:03:09,000 --> 01:03:15,000 een galerij maakt met vier foto's gewijd aan dergelijke onderwerpen over een onderwerp als indrukwekkende bergen, inclusief landbouw, rijstvelden, trappen, wat dan ook, dat een beetje verdacht wordt van 685 01:03:15,000 --> 01:03:23,000 exotisch te zijn. Ze nemen een beetje van deze indrukwekkendheid weg van elkaar, 686 01:03:23,000 --> 01:03:29,000 of neem afstand van dit exotisme, wat ik eigenlijk een heel goed effect vind, want dan zie je, oké, 687 01:03:29,000 --> 01:03:35,000 dat is opvallend, maar ook een beetje normaal, of laat drie foto's zien. Heb gewoon niet zo'n exotisme, 688 01:03:35,000 --> 01:03:44,000 terwijl er maar één foto is die het laat zien, en als je dan de moed hebt om te zeggen: ja, ik ga gewoon verder dan die ene foto, 689 01:03:44,000 --> 01:03:51,000 wat uiteraard ook vereist dat je op Commons redelijk in staat bent om zulke foto’s überhaupt te vinden, 690 01:03:51,000 --> 01:04:01,000 maar het is mogelijk, en daarom ben ik een beetje onzeker, Ziko, wat je aan het einde zei, 691 01:04:01,000 --> 01:04:10,000 dat de illustraties op Wikipedia zo langzaam vorderen, zou ook heel goed kunnen zijn, namelijk dat 692 01:04:10,000 --> 01:04:17,000 het beter is om geen foto te plaatsen daar zit dan een slecht beeld in, ook inhoudelijk gezien. 693 01:04:17,000 --> 01:04:21,000 Ik weet niet zeker hoe het er eigenlijk uitziet. 694 01:04:24,000 --> 01:04:33,000 Ja, hoe doen we dat, Eva? Mono-Ett, zullen we eerst gaan verzamelen? Misschien is dat beter, ja? Of moet ik erop reageren? 695 01:04:33,000 --> 01:04:41,000 Dus ik denk dat dat een heel gedifferentieerde verklaring zou zijn. Ik denk dat we er misschien meteen mee aan de slag moeten gaan, Ziko, 696 01:04:41,000 --> 01:04:47,000 en je mag gerust beginnen, want er waren een paar punten, anders zou het misschien te veel zijn. 697 01:04:47,000 --> 01:04:55,000 Ik heb prachtige foto's gevonden, punten. Ik wilde alleen maar zeggen, een misverstand over de koffie en de zwavel- en zandstranden, 698 01:04:55,000 --> 01:05:01,000 het ging voor mij niet zozeer om exotisme, en die indruk kan altijd ontstaan, maar het ging over 699 01:05:01,000 --> 01:05:07,000 Of nu de algemene indruk ontstaat dat dit land nu alleen maar zandstranden of grondstoffen te bieden heeft, 700 01:05:07,000 --> 01:05:17,000 dan zou ik graag meer foto's zien van het dagelijks leven, het straatleven, of heb ik ergens een vakbondsbijeenkomst in een verklarende woordenlijst. 701 01:05:17,000 --> 01:05:25,000 Er zitten mensen rond zo'n tafel bij de vakbond in Angola, denk ik, en ik zou je graag zoiets willen laten zien, 702 01:05:25,000 --> 01:05:32,000 of een parlementsgebouw en dan niet alleen de vakantie-indrukken. Ik vind galerijen geweldig. Ik heb de indruk dat 703 01:05:32,000 --> 01:05:40,000 er hier artikelen zijn zoals degene die ik in Ghana of Burundi heb bekeken, ze zijn in essentie rond 2009 geschreven, 704 01:05:40,000 --> 01:05:51,000 en gedurende die tijd hebben ze het ook in essentie geïllustreerd, en in de tussentijd is er zoveel goeds toegevoegd via Wiki houdt van Afrika en andere initiatieven, 705 01:05:51,000 --> 01:05:59,000 dus je kunt meer doen, maar die terughoudendheid – liever geen foto dan een ongepaste foto – vind ik eigenlijk heel verstandig. 706 01:06:00,000 --> 01:06:07,000 Ja, dan zou ik er misschien meteen in springen, dus ik denk dat het heel verstandig is om te zeggen dat het beter is om geen foto te hebben dan een foto die 707 01:06:07,000 --> 01:06:17,000 ongepast is of die zeker problematisch kan zijn. Maar als ik nu bijvoorbeeld vanuit het perspectief van mijn studenten kijk, 708 01:06:17,000 --> 01:06:27,000 die Wikipedia heel vaak gebruiken, zie ik natuurlijk ook dat je als Wikipedia-auteur misschien op de hoogte wilt blijven van andere platforms, 709 01:06:27,000 --> 01:06:36,000 die, zoals ik al zei, erg beeldrijk. Dus hier is de vraag, hoe positioneert Wikipedia zich ten opzichte van andere kennisbronnen op internet, 710 01:06:36,000 --> 01:06:45,000 en ik zou ook het volgende willen overwegen: ik denk ook dat het idee van de beeldgalerijen goed is, en ik moet ook in gedachten houden 711 01:06:45,000 --> 01:06:56,000 dat het belangrijk is om rekening te houden met de beeldconstellatie, dat beelden elkaar ook kunnen beïnvloeden in hun betekenis. 712 01:06:56,000 --> 01:07:07,000 Wat ik mij altijd afvraag is dat veel jongeren, maar natuurlijk ook in alle leeftijdsgroepen, Wikipedia nu via hun smartphone benaderen, 713 01:07:07,000 --> 01:07:16,000 wat betekent dat je bij het illustreren van artikelen wellicht ook rekening moet houden met hoe de beeldgalerijen op de website staan smartphone kan worden gezien. 714 01:07:16,000 --> 01:07:27,000 Ik denk dat veel Wikipedia-auteurs Wikipedia nog steeds bewerken via de pc, de laptop die ergens staat en de klassieke weergave hebben, 715 01:07:27,000 --> 01:07:35,000 maar de vraag is altijd hoe tekst-beeldrelaties en beeld-beeldconstellaties verschijnen via de smartphone, 716 01:07:35,000 --> 01:07:43,000 oftewel hier het specifieke internet gebruikers die een Wikipedia-artikel openen, kunnen een heel andere mening hebben 717 01:07:43,000 --> 01:07:56,000 waar jij als auteur geen rekening mee hebt gehouden. Je moet dus bedenken hoe de daadwerkelijke ontvangstsituatie is via de laptop of smartphone. 718 01:07:56,000 --> 01:08:06,000 En ik denk dat hier tot nu toe weinig onderzoek naar is gedaan, wat zeker een spannend punt is, ook gezien het feit dat de eindapparaten waartoe toegang wordt verkregen via Wikipedia zijn 719 01:08:07,000 --> 01:08:14,000 veranderd, en dat je als auteur hier misschien mee te maken krijgt anticipeert op wat de ontvangstsituatie is maar ik weet dat dat veel gevraagd is, 720 01:08:14,000 --> 01:08:24,000 vooral omdat veel auteurs op vrijwillige basis op Wikipedia werken, en het in aanmerking nemen van de meeste en zoveel aspecten natuurlijk veel vraagt. 721 01:08:24,000 --> 01:08:30,000 Dank u, ik denk dat we nu verder kunnen gaan met de volgende vraag. Mono-ett. 722 01:08:30,000 --> 01:08:34,000 Bedankt, Raimund hier. Ik weet niet eens of je ons hier in de hal ziet. 723 01:08:37,000 --> 01:08:38,000 Nee. 724 01:08:38,000 --> 01:08:39,000 Dan gaan we verder. 725 01:08:39,000 --> 01:08:48,000 Hallo, nu zie je mij. Ik zou graag wat context willen geven over het onderwerp Elisabeth Böhm. 726 01:08:48,000 --> 01:08:54,000 Ik was meteen getriggerd omdat mijn vrouw het artikel schreef. 727 01:08:54,000 --> 01:09:01,000 En zij en ik werken al heel, heel lang aan het onderwerp van de familie Böhm, dat wil zeggen de architectenfamilie Böhm. 728 01:09:01,000 --> 01:09:06,000 Ik weet dat het heel moeilijk voor haar was om het artikel te schrijven, omdat Elisabeth Böhm er 729 01:09:06,000 --> 01:09:11,000 heel, heel lang over deed... over het onderwerp van de familie Böhm, dat wil zeggen de architectenfamilie Böhm. 730 01:09:11,000 --> 01:09:17,000 Ik weet dat ze het heel moeilijk vond om het artikel te schrijven, want Elisabeth Böhm. 731 01:09:17,000 --> 01:09:23,000 Ja, we denken dat ze relevant is, maar zoals veel moeders was ze gewoon een moeder. 732 01:09:23,000 --> 01:09:33,000 Dat is gewoon hoe het is. Bedenk waarom er geen foto van haar in het artikel stond, geen enkele foto, waarop jij, Eva, kritiek had. 733 01:09:33,000 --> 01:09:38,000 Ik zie het gebrek ook, maar eigenlijk had ik beter geen foto kunnen hebben dan deze foto, 734 01:09:38,000 --> 01:09:43,280 de foto waar jij, Eva, kritiek op had. Ik zie het gebrek ook, maar er zou 735 01:09:43,280 --> 01:09:49,280 eigenlijk geen betere foto zijn geweest dan deze foto, want de foto is gemaakt in 2009 736 01:09:49,280 --> 01:09:53,960 van, ik weet het niet, ik wist het, ik heb net gekeken en ik ken de gebruiker niet 737 01:09:53,960 --> 01:10:00,600 . Dat is verschrikkelijk, dat is wazig, dat is klein. Op een bepaald moment 738 01:10:00,600 --> 01:10:09,720 in 2017 heeft mevrouw Böhm de man eruit geknipt en bijgesneden. Het doet pijn om de foto te zien. 739 01:10:09,720 --> 01:10:16,120 Dus dat is echt heel erg. Ze stierf in 2012 en we 740 01:10:16,120 --> 01:10:21,000 zagen de familie af en toe, maar meestal alleen Gottfried Böhm en broers. 741 01:10:21,000 --> 01:10:28,200 De vrouw kwam simpelweg niet meer opdagen, ook niet tussen 2009 en 2012. 742 01:10:28,200 --> 01:10:32,000 Nou ja, niet dat ik weet. Maakt een interessante film. Ik denk dat 743 01:10:32,000 --> 01:10:37,520 het een uur lang over de familie Böhm gaat. Dus even een klein beetje context. Over de tekst 744 01:10:37,520 --> 01:10:43,240 kan ik op dit moment nog niet veel zeggen. Mijn vrouw is er ook niet, ze is thuis. Maar ik denk dat 745 01:10:43,240 --> 01:10:49,160 ik haar eerder een paar screenshots van de dia's heb gestuurd. Kijk wat ze nu doet. 746 01:10:49,160 --> 01:10:56,800 Ja, omdat ik ook veel foto's maak, is het niet altijd gemakkelijk 747 01:10:56,800 --> 01:11:03,640 om het juiste te vinden, de juiste foto te maken en een beetje reclame te maken voor een 748 01:11:03,640 --> 01:11:08,440 SteePro-sessie. Ik weet niet of hij vandaag of morgen zal klagen over het feit 749 01:11:08,440 --> 01:11:14,080 dat er zoveel wordt gezeurd over kleine, lelijke foto's. Ik vind het ook een spannend onderwerp. 750 01:11:14,080 --> 01:11:16,280 Ja, zoveel daarvoor. 751 01:11:16,280 --> 01:11:23,920 Ja heel erg bedankt. Voor mij is dit natuurlijk ook een heel, heel spannende contextualisering 752 01:11:23,920 --> 01:11:29,440 van beelden. Dat had dus geen fundamentele kritiek op het artikel mogen zijn. 753 01:11:29,440 --> 01:11:35,080 Ik vind het geweldig dat een vrouw 754 01:11:35,080 --> 01:11:40,440 haar standpunt heeft behouden en een artikel over een vrouw op zich heeft genomen over een vrouw die misschien net aan de relevantiecriteria voldoet. Dat is dus 755 01:11:40,440 --> 01:11:46,440 ook een punt dat besproken wordt in veel initiatieven rond Wikipedia. Hoe 756 01:11:46,440 --> 01:11:53,240 krijgen we meer artikelen over vrouwen die historisch gezien ook familieopstellingen hadden 757 01:11:53,240 --> 01:11:58,280 waardoor ze niet 758 01:11:58,280 --> 01:12:02,600 aanwezig konden zijn in een architectenbureau of in professionele rollen? Dus om daarover na te denken, heb ik er 759 01:12:02,600 --> 01:12:07,880 al intensief over gesproken met Ziko. Geen fundamentele kritiek op het artikel dus, 760 01:12:07,880 --> 01:12:13,320 maar wel leuk dat er iets in staat. Maar er is nog wel wat ruimte voor verbetering 761 01:12:13,320 --> 01:12:20,240 om het artikel goed vorm te geven zodat het geen beet veroorzaakt. En dan is het nu een 762 01:12:20,240 --> 01:12:25,440 spannend punt om weer over beeldkwaliteit te praten. Ik zie dus dat er 763 01:12:25,440 --> 01:12:30,800 ook hier verschillende aspecten zijn. Dus aan de ene kant is er natuurlijk het technische aspect. Ik ben 764 01:12:30,800 --> 01:12:36,160 eigenlijk relatief open en openhartig. Ik heb er dus geen last van als een foto 765 01:12:36,160 --> 01:12:42,000 technisch gezien niet van goede kwaliteit is, maar ik heb eerder betoogd dat het misschien 766 01:12:42,000 --> 01:12:47,160 beter zou zijn om hem bij te snijden. Ik weet niet precies wat het betekent, maar ik vermoed dat het betekent dat je 767 01:12:47,160 --> 01:12:53,360 een persoon uit een groepsfoto moet verwijderen om die persoon in het midden te plaatsen. Precies, 768 01:12:53,360 --> 01:12:58,680 Zico gaf het met een gebaar aan. Vanuit mijn culturele taalkundige en 769 01:12:58,680 --> 01:13:03,360 beeldstudies perspectief denk ik dat dit een goede optie is 770 01:13:03,360 --> 01:13:08,480 om de beelden zo bij te snijden dat mensen in het centrum staan, zodat bepaalde constellaties van mensen 771 01:13:08,480 --> 01:13:14,440 niet ook een podium hoeven te bieden. En dan vooral constellaties van mensen die 772 01:13:14,440 --> 01:13:19,840 de mens op de voorgrond plaatsen, omdat die naar mijn mening op veel plekken al sterk aanwezig zijn. 773 01:13:19,840 --> 01:13:26,600 Precies, om het een beetje polemisch te zeggen. Dus zoals ik al zei, vanuit een 774 01:13:26,600 --> 01:13:30,600 technisch perspectief kan ik begrijpen dat er met de beeldkwaliteiten 775 01:13:30,600 --> 01:13:35,320 overwegingen kunnen zijn, maar vanuit het perspectief van culturele studies en beeldstudies 776 01:13:35,320 --> 01:13:42,680 denk ik absoluut dat het een goed proces is, goede digitale beeldpraktijk hier voor de persoon 777 01:13:42,680 --> 01:13:47,640 die wordt beschreven, om zo te zeggen, en het dienovereenkomstig bijsnijden van de afbeelding is mijn perspectief. 778 01:13:47,640 --> 01:13:52,600 Dat zou ook een spannend onderhandelingspunt zijn. En ik ben erg enthousiast 779 01:13:52,600 --> 01:13:55,640 over de sessie die ik zojuist noemde, die daar misschien ook over gaat. Misschien kun je 780 01:13:55,640 --> 01:14:00,920 dit cultuurwetenschappelijke perspectief ook in de sessie betrekken. 781 01:14:00,920 --> 01:14:06,480 We hebben nu nog één vraag van het publiek hier en dan nog een paar vragen uit de chat. 782 01:14:12,920 --> 01:14:21,000 Gebruiker Matthias B. uit Schwetzingen. Hallo Eva. U noemde het eerder 783 01:14:21,000 --> 01:14:29,600 om de vraag of bezorgdheid over het beter benoemen van afbeeldingen voor ondertitels te beschrijven. 784 01:14:29,600 --> 01:14:34,840 Dit heeft natuurlijk een heel groot probleem en dat is de massa aan bestanden die 785 01:14:34,840 --> 01:14:43,240 op Wikimedia Commons staan. Er zijn er nu tientallen miljoenen, dus niemand heeft er de tijd voor. 786 01:14:43,240 --> 01:14:50,680 Misschien moeten we dus beginnen met te zeggen dat afbeeldingen die op Wikipedia worden gebruikt, 787 01:14:50,680 --> 01:14:56,520 gedetailleerder moeten worden beschreven. Maar dit geldt ook voor de toegankelijkheid van de alternatieve 788 01:14:56,520 --> 01:15:04,400 namen. Het is een heel ander verhaal dat slechtzienden het beeld niet kunnen zien. 789 01:15:04,400 --> 01:15:11,720 Of beter gezegd, het is nog moeilijker te beoordelen. En nog een punt dat bij me opkwam: 790 01:15:11,720 --> 01:15:17,160 we hadden een paar jaar geleden een discussie, een zeer verhitte discussie op Wikipedia, 791 01:15:17,160 --> 01:15:23,440 over de illustratie van het artikel Panty's. Destijds werd het, als ik het goed heb, geïllustreerd 792 01:15:23,440 --> 01:15:28,320 met een foto van een advertentie van het Oostenrijkse bedrijf Palmers, dat bekend staat om zeer, 793 01:15:28,320 --> 01:15:36,000 zou ik zeggen, onthullende reclameborden, die volgens mij inmiddels enigszins uit het straatbeeld 794 01:15:36,000 --> 01:15:44,040 hier zijn verdwenen in Oostenrijk. En toen werden ze verwijderd, er kwamen andere foto's binnen, toen was er een vrouw met 795 01:15:44,040 --> 01:15:48,760 ondoorzichtige panty's, die werd vervolgens weer vervangen, daarna werd er een balletdanseres 796 01:15:48,760 --> 01:15:55,720 ingebracht, heen en weer en heen en weer. Ik moet eerlijk zijn over hoe de situatie nu is, 797 01:15:56,120 --> 01:15:59,760 maar het probleem is niet nieuw en is dus ergens al enkele jaren bekend. 798 01:16:03,240 --> 01:16:09,160 Ja, heel erg bedankt, Matthias B., voor alle geweldige tips. Dus ik zie natuurlijk 799 01:16:09,160 --> 01:16:15,280 dat dit een praktisch probleem is om afbeeldingen vervolgens goed te contextualiseren, 800 01:16:15,280 --> 01:16:19,360 vooral de tientallen miljoenen die al op Wikimedia Commons staan. 801 01:16:19,840 --> 01:16:24,080 Maar misschien is dat wel iets waar we met het oog op de toekomst rekening mee kunnen houden. 802 01:16:24,120 --> 01:16:31,320 Voor de afbeeldingen die nieuw worden toegevoegd, zijn er dus goede regels en criteria om in te stellen in welke context 803 01:16:31,320 --> 01:16:36,760 deze afbeeldingen worden geplaatst. Ik denk dat het ook zou kunnen helpen bij de specifieke illustratie 804 01:16:36,760 --> 01:16:41,760 als er hier een goede context was. U zou misschien tijd besparen bij het 805 01:16:41,760 --> 01:16:46,640 illustreren van een artikel als u betere toegang tot de afbeeldingen had. 806 01:16:47,120 --> 01:16:54,400 En zoals ik al zei, wat ik nu waarneem, vooral tegen de achtergrond van AI, is dat er een groot aantal 807 01:16:54,400 --> 01:16:59,640 afbeeldingen op Wikimedia Commons wordt geplaatst, vooral voor vrouwen, die 808 01:16:59,640 --> 01:17:05,280 helemaal niet goed gecontextualiseerd zijn en, naar mijn mening, ook in een project als Wikimedia Commons hebben ze niets te zoeken, 809 01:17:05,280 --> 01:17:11,960 omdat ze genderstereotypen op massale schaal reproduceren. En dat brengt me eigenlijk 810 01:17:11,960 --> 01:17:17,520 bij je tweede punt, Matthias B. Ik ken het geval van panty's eigenlijk. 811 01:17:17,520 --> 01:17:22,720 Natuurlijk moet ik een online encyclopedie van de 21e eeuw vragen of het 812 01:17:22,720 --> 01:17:28,640 echt gaat om het reproduceren van onthullende afbeeldingen uit advertenties in een Wikipedia-artikel. 813 01:17:28,640 --> 01:17:33,680 Ik bedoel, het is voor iedereen duidelijk dat reclame aandacht wil krijgen, dat het mogelijk is 814 01:17:33,680 --> 01:17:40,320 een product naar vrouwen te brengen en dat misschien ook bepaalde schoonheidsidealen 815 01:17:40,360 --> 01:17:45,120 aan bod komen. En ik weet dat er in dit geval ook een soort fetisjafbeeldingen waren 816 01:17:45,120 --> 01:17:51,600 die ook problematische afbeeldingen van vrouwen lieten zien die naar mijn mening 817 01:17:51,600 --> 01:17:57,360 helemaal geen online encyclopedische relevantie hadden. Dit is dus een punt dat 818 01:17:57,360 --> 01:18:04,680 echt de moeite waard is om te bespreken. Wat wil je echt laten zien in een online encyclopedie met dit soort onderwerpen en 819 01:18:04,680 --> 01:18:09,440 artikelen? Is het nodig, zoals ik al zei, om schoonheidsidealen of, nog erger, 820 01:18:09,600 --> 01:18:16,680 fetisjbeelden of beelden die als fetisjen kunnen worden gezien, te reproduceren en 821 01:18:16,680 --> 01:18:22,440 deze hier in een online encyclopedie op te nemen? Volgens mij hoort daar geen plaats voor te zijn. Daarom 822 01:18:22,440 --> 01:18:24,800 kan ik begrijpen of dit artikel dienovereenkomstig is aangepast. 823 01:18:29,080 --> 01:18:29,800 Ja bedankt. 824 01:18:29,800 --> 01:18:32,480 Ja, als ik iets kan toevoegen of ik neem het. 825 01:18:34,000 --> 01:18:36,920 Ook hebben wij vragen vanuit de chat en dan staat er hier nog iemand aan de voorkant. 826 01:18:37,480 --> 01:18:39,520 Dan kun je beter je vragen stellen dan ja. 827 01:18:46,520 --> 01:18:50,640 Beste Ziko, Ik ben de online engel van de sessie en we hadden geen vragen, alleen 828 01:18:50,640 --> 01:18:55,000 opmerkingen, maar ik gooi ze er toch maar in. Dus een reactie die 829 01:18:55,000 --> 01:19:00,640 weer over de foto van Elisabeth Böhm gaat en eigenlijk spijtig genoeg zegt dat de 830 01:19:01,120 --> 01:19:07,520 foto, die toch al zo slecht opgelost was, is bijgesneden. En dan twee opmerkingen die zo doordacht zijn, waarbij 831 01:19:07,520 --> 01:19:13,760 ze zich van illustraties meer richten op het grotere onderwerp: hoe haal je vrouwen uit de schaduw van hen 832 01:19:13,760 --> 01:19:18,560 Mannen in hun Wikipedia-artikelen en dit lijkt een beetje op het voorbeeld van Miliva Maric 833 01:19:18,560 --> 01:19:25,760 , de Servische natuurkundige en wiskundige, die velen kennen als de vrouw van Albert Einstein, 834 01:19:25,760 --> 01:19:31,560 de eerste vrouw van Albert Einstein. Dus de inwoners van Zürich 835 01:19:31,560 --> 01:19:36,720 dachten gewoon een beetje na, om het zo maar te zeggen. Ja, hier is nog een vraag uit het publiek. 836 01:19:39,840 --> 01:19:45,400 Hallo gebruiker Alfons, ik dacht eigenlijk dat we hier veel meer zouden praten 837 01:19:45,400 --> 01:19:52,280 over de kwestie van door AI gegenereerde afbeeldingen. Het sprak je heel kort aan, maar zoals je 838 01:19:52,280 --> 01:19:57,240 misschien weet of hebt gevolgd op de discussiepagina's, toen Chet-T-Petit 839 01:19:57,240 --> 01:20:02,720 dit voorjaar overal opdook, rees meteen de vraag: hoe zit het met door AI gegenereerde 840 01:20:02,720 --> 01:20:11,040 afbeeldingen? Ik illustreer het artikel AI niet, maar waar iemand gewoon 841 01:20:11,040 --> 01:20:17,720 denkt, zal ik een prompt maken, ik zal de AI voor mij laten werken en elke afbeelding samenstellen 842 01:20:17,720 --> 01:20:24,080 waarvan ik denk dat deze een leemte op Wikipedia zal opvullen. En we 843 01:20:24,080 --> 01:20:29,400 hadden er in deze context een discussie over en naar mijn mening was het relatief verbazingwekkend, 844 01:20:29,400 --> 01:20:36,600 bevredigend en consistent, namelijk dat dergelijke foto’s, als ze het AI-artikel niet illustreren, 845 01:20:36,600 --> 01:20:44,960 onder verdenking staan van TF, dat wil zeggen theorieontwikkeling, je bouw gewoon zelf iets samen, dit heeft 846 01:20:44,960 --> 01:20:51,760 geen aanspraak op uiteindelijke authenticiteit en wordt uit de artikelen verwijderd. Dat hadden we zelfs, 847 01:20:51,760 --> 01:20:57,840 er is nog een kleine variatie op, er waren een tijdje mensen die 848 01:20:57,840 --> 01:21:05,800 contouren schilderden van mensen voor wie er geen plaatjes op Wikipedia stonden. We hadden 30 of 40 van dat soort foto's, 849 01:21:05,800 --> 01:21:11,560 ik denk vooral artikelen over muzikanten, die vervolgens allemaal 850 01:21:11,640 --> 01:21:15,280 zijn verwijderd. Misschien kunnen we daar nog eens kort over praten. Bedankt. 851 01:21:15,280 --> 01:21:24,160 Ik ben dus erg blij om dit onderwerp ter sprake te brengen, ook al ben ik helemaal geen AI-expert, maar 852 01:21:24,160 --> 01:21:29,280 ik benader het onderwerp uit eigen interesse en ik 853 01:21:29,280 --> 01:21:34,960 denk niet dat er nog zoveel onderzoek is gedaan. in ieder geval niet over het Jet-GPT-fenomeen DALI, dat wil zeggen chatbots, waarover momenteel 854 01:21:34,960 --> 01:21:40,600 sinds november vorig jaar in de hele samenleving wordt onderhandeld. Maar ik zie het ook als 855 01:21:40,680 --> 01:21:44,880 een groot probleem, de AI-gegenereerde beelden. Ik zie het dus als een 856 01:21:44,880 --> 01:21:52,200 tweesnijdend zwaard. Je ziet zeker kansen, maar je moet ze heel, heel goed in bedwang houden, 857 01:21:52,200 --> 01:21:57,880 dus je moet nadenken over hele goede regels over wanneer afbeeldingen 858 01:21:57,880 --> 01:22:04,160 nog acceptabel zijn voor Wikipedia. Als het bijvoorbeeld gaat om historische personen, dat wil zeggen mensen 859 01:22:04,160 --> 01:22:09,240 die al overleden zijn en voor wie er Wikipedia-artikelen bestaan, als er 860 01:22:09,240 --> 01:22:16,320 beeldmateriaal is dat alleen historische sterrenbeelden bevat, zoals de 861 01:22:16,320 --> 01:22:22,080 familiefoto van Marie Curie, waarop haar vader zo zit centraal zou het uiteraard een 862 01:22:22,080 --> 01:22:30,640 zekere aantrekkingskracht hebben om op basis van zulke beelden beelden te genereren waarin Marie Curie 863 01:22:30,640 --> 01:22:36,720 te zien is in hedendaagse constellaties. Maar dat is natuurlijk heel riskant omdat het 864 01:22:36,720 --> 01:22:41,600 volledig in tegenspraak is met eerdere beeldculturen. Ik zou zeggen dat we simpelweg willen 865 01:22:41,600 --> 01:22:47,000 dat beelden een zekere authenticiteit hebben en dat de 866 01:22:47,000 --> 01:22:52,280 genoemde beelden de contouren van mensen zijn. Ik denk dat het ook een wens was om 867 01:22:52,280 --> 01:22:56,560 mensen die al overleden zijn en niet meer gefotografeerd kunnen worden een 868 01:22:56,560 --> 01:23:02,960 gezicht te geven, laten we zeggen op Wikipedia, omdat we een heel 869 01:23:02,960 --> 01:23:08,760 visuele cultuur hebben. Maar ik begrijp het natuurlijk ook als je zorgen hebt over 870 01:23:08,760 --> 01:23:14,920 het integreren van dergelijke beelden, zoals ik al zei, gezien het idee van de authenticiteit van beelden. Naar mijn 871 01:23:14,920 --> 01:23:20,360 mening overheersen op dit moment de gevaren van AI-gegenereerde beelden duidelijk. Zoals gezegd 872 01:23:20,360 --> 01:23:25,040 heb ik op dit moment de indruk dat er 873 01:23:25,040 --> 01:23:33,160 , vooral als het gaat om de representatie van vrouwen, een stortvloed aan beeldmateriaal ontstaat dat voortbouwt op eerder materiaal en 874 01:23:33,160 --> 01:23:37,880 zelfs genderstereotypen versterkt die al terug te vinden zijn in eerder, authentiek beeldmateriaal. materiaal. 875 01:23:37,880 --> 01:23:43,880 En daar wordt prompt zo voor gekozen dat genderstereotypering veel meer 876 01:23:43,880 --> 01:23:48,960 wordt overgenomen en dat dit beeldmateriaal op Wikimedia Commons is 877 01:23:48,960 --> 01:23:54,200 dat in geen geval op Wikipedia terecht mag komen. Ik kan me geen 878 01:23:54,200 --> 01:24:00,800 enkele context voorstellen waarin deze beelden gebruikt zouden kunnen worden. En daarom zie ik er hier één 879 01:24:00,800 --> 01:24:05,680 Er is een grote behoefte om de regels op Wikimedia Commons te heroverwegen. Ik denk dat er nog 880 01:24:05,680 --> 01:24:10,640 niet veel regelgeving bestaat over wat er op Wikimedia Commons kan worden gepost. Waarschijnlijk gezien 881 01:24:10,640 --> 01:24:14,240 het feit dat mensen over het algemeen blij waren als iemand de moeite had genomen 882 01:24:14,240 --> 01:24:20,960 om hier foto's te plaatsen, maar met de mogelijkheid om 883 01:24:20,960 --> 01:24:26,920 met een druk op de knop massa's foto's te genereren met bepaalde aanwijzingen, vanuit mijn oogpunt deze prachtige foto-inventaris , dit prachtige 884 01:24:26,920 --> 01:24:32,120 beeldmateriaal, overstroomt wat voorheen grotendeels beschikbaar was op Wikimedia Commons. Naar mijn mening zal dit volledig 885 01:24:32,120 --> 01:24:36,840 overschaduwd worden als hier niet tijdig regelgeving wordt gevonden. En dan 886 01:24:36,840 --> 01:24:41,320 zou je in de tweede plaats natuurlijk moeten nadenken over hoe je in andere Wiki-projecten met dit beeldmateriaal op Wikimedia Commons omgaat 887 01:24:41,320 --> 01:24:47,960 . Dit is mijn eerste, nogal voorzichtige 888 01:24:47,960 --> 01:24:53,640 houding ten opzichte van beelden. Precies, Ziko, je wilt nu zeker iets. Oh, daar ben ik ook erg voorzichtig mee 889 01:24:53,640 --> 01:24:59,840 . Ja, heel erg bedankt, Alphons, dat je het nog een keer hebt rondgegooid. Ik heb een video 890 01:24:59,840 --> 01:25:05,600 op mijn kanaal, dus ik wil niet op de meeste aspecten ervan ingaan. Ja, het is altijd de 891 01:25:05,600 --> 01:25:11,920 vraag: wat verwacht ik van een foto? Beschouw ik het echt als bron of als illustratie? En 892 01:25:11,920 --> 01:25:16,880 dan hebben we nog evenveel voorbeelden uit de geschiedenis van de encyclopedie waarbij je ook nog eens 893 01:25:16,880 --> 01:25:22,760 pure illustraties van iets had. Geschiedenisschilderen en ja, ik vind het altijd moeilijk om te 894 01:25:22,760 --> 01:25:29,360 zeggen waarom met name AI niet is toegestaan. Maar goed, daarover meer. Wat de beelden van vrouwen betreft, 895 01:25:29,360 --> 01:25:34,080 het zijn zeer geseksualiseerde representaties van wat ik weet: fantasie, 896 01:25:34,080 --> 01:25:39,320 schaars geklede krijgersvrouw of iets dergelijks. En ik vraag me ook af waar de noodzaak voor is, 897 01:25:39,320 --> 01:25:45,080 tenzij je in een artikel over kunstmatige intelligentie wilt laten zien dat zulke beelden bestaan 898 01:25:45,080 --> 01:25:50,480 of zoiets. Ja, ik weet niet of de regels strenger moeten. Dan worden ze gewoon 899 01:25:50,480 --> 01:25:56,480 genegeerd. Ze staan op Commons. In hoeverre ze daar voor overlast zorgen weet ik niet. Maar ja, 900 01:25:56,480 --> 01:26:02,920 in hoeverre wil Wikimedia Commons nu een platform zijn voor wat uiteindelijk 901 01:26:02,920 --> 01:26:09,680 een soort fanart of amateurtekeningen is, of hoe je het ook wilt noemen. Dit 902 01:26:09,680 --> 01:26:14,440 is dus mogelijk niet het geschikte platform hiervoor. Ik kan dit ongenoegen begrijpen. 903 01:26:14,440 --> 01:26:23,680 Ja, maar in het algemeen, hoe dit zich zal ontwikkelen in de samenleving, of mensen 904 01:26:23,680 --> 01:26:30,600 over vijf jaar misschien veel cooler zullen zijn met representaties als Albert Einstein op de een of andere manier in 905 01:26:30,600 --> 01:26:35,200 reconstructies met AI. Het kan zijn dat mensen het helemaal oké vinden. 906 01:26:35,200 --> 01:26:39,840 Ik heb nog één vraag uit het publiek en dan komen we langzaam aan het einde. 907 01:26:44,440 --> 01:27:01,480 Mijn naam is dus Andreas Werle. Jullie weten allemaal dat Shakespeare mijn hobby is en dat ik, 908 01:27:01,480 --> 01:27:09,400 samen met een Engelse geleerde Wide Horizons, 909 01:27:09,400 --> 01:27:16,440 het hele oeuvre volledig heb herschreven, inclusief Shakespeare, alle drama's, en ook alle foto's heb uitgewisseld en nieuwe foto's heb toegevoegd. En dat 910 01:27:16,440 --> 01:27:24,200 is problematisch, want het werk van Shakespeare zit vol vrouwonvriendelijke elementen en 911 01:27:24,200 --> 01:27:32,440 koloniale fantasieën enzovoort. En ik heb bewust twee voorbeelden gekozen van beelden 912 01:27:32,440 --> 01:27:40,040 die het koloniale stereotype en een vrouwonvriendelijk element reproduceren, namelijk in King Lear, 913 01:27:40,040 --> 01:27:49,040 een foto van Margaret Cameron, waarop Lear te zien is en vervolgens de twee slechte dochters 914 01:27:49,040 --> 01:27:54,000 die achter hem staan, die bedrieglijk zijn en vervolgens de goede dochter, Cordelia, 915 01:27:54,000 --> 01:28:00,600 die een beetje voor hem buigt en die de nederige dochter zou moeten zijn 916 01:28:00,680 --> 01:28:09,080 omdat zij de goede dochter is. In feite 917 01:28:09,080 --> 01:28:15,560 zijn de geschiedenis van de interpretatie en de moderne interpretatie van het werk en het werk zelf hier volledig tegengesteld aan. Cordelia is dus 918 01:28:15,560 --> 01:28:22,600 rebels, spreekt Lear tegen en verschijnt later als militair leider en probeert 919 01:28:22,600 --> 01:28:28,600 Engeland te veroveren. En de twee sluwe dochters, de slechte, zijn degenen 920 01:28:28,600 --> 01:28:37,000 die koppig zijn, die zich verzetten tegen de vader, de vaderfiguur. En in het 921 01:28:37,000 --> 01:28:42,640 Cleopatra-artikel heb ik gekozen voor een heel klassiek beeld, dat 922 01:28:42,640 --> 01:28:48,760 Cleopatra voorstelt als een femme fatale, dat in principe de koloniale context op een bevestigende manier weerspiegelt, 923 01:28:48,760 --> 01:28:56,040 ook al is Cleopatra een van de meest fantastische personages die Shakespeare 924 01:28:56,040 --> 01:29:03,440 naast Hamlet heeft gespeeld en.. Falstaff gegenereerd en waar iedereen gefascineerd is door deze sterke, 925 01:29:03,440 --> 01:29:09,040 emotionele en tegenstrijdige vrouw. Dus deze tegenstrijdigheid vind ik interessant 926 01:29:09,040 --> 01:29:14,240 en uitdagend en ik deed dit bewust, dus het is mij volkomen duidelijk dat 927 01:29:14,240 --> 01:29:20,360 deze beelden in de eerste plaats in strijd zijn met de inhoud van de werken en ten tweede met de geschiedenis van de interpretatie. 928 01:29:20,360 --> 01:29:31,280 Denk je dat dat goed is? Wat denk jij ervan? Het onderschrift in het Lear-artikel is eenvoudigweg 929 01:29:31,280 --> 01:29:38,960 King Lear en zijn dochters, geschreven door Margaret Cameron en Cleopatra, daar staat alleen 930 01:29:38,960 --> 01:29:46,040 een naam, geschilderd door die en die. Bedankt. Ja, helemaal spannend, Ziko, ik zou beginnen 931 01:29:46,040 --> 01:29:51,680 als je wilt. De discussie over fictieve teksten op Wikipedia is uiteraard 932 01:29:51,680 --> 01:29:57,680 zeer relevant voor onderwijscontexten, omdat leerlingen ook 933 01:29:57,680 --> 01:30:03,080 toegang krijgen tot Wikipedia als ze 934 01:30:03,080 --> 01:30:11,680 fictieve teksten bespreken in onderwijscontexten en dit spanningsveld van wat we nu hebben besproken, hoe afbeeldingen werken en 935 01:30:11,680 --> 01:30:16,600 ik vind het heel spannend dat mensen ontvangstverhalen in het artikel willen opnemen, 936 01:30:16,600 --> 01:30:21,800 maar ik zou ook graag willen dat de bijschriften misschien ook 937 01:30:21,800 --> 01:30:27,200 de achtergrond onthullen waartegen deze beelden zijn gekozen. Ik denk dus dat het heel logisch is 938 01:30:27,200 --> 01:30:33,320 om de bijschriften opnieuw te formuleren en op zijn minst tot op zekere hoogte te vermelden 939 01:30:33,320 --> 01:30:37,760 waarom welke afbeeldingen hier zijn geselecteerd, met welke achtergrond, 940 01:30:37,760 --> 01:30:46,240 zodat het transparant wordt voor, in ieder geval voor, studenten. Of studenten 941 01:30:46,240 --> 01:30:51,360 vervolgens op zo'n doordachte manier toegang krijgen tot Wikipedia valt nog te bezien, maar voor 942 01:30:51,360 --> 01:30:56,360 studenten zou het in ieder geval wellicht transparanter worden en misschien ook een andere mogelijkheid bieden 943 01:30:56,680 --> 01:31:02,280 om nog eens na te denken over waarom bepaalde beeldinventarisaties hier zijn opgenomen. Dus, 944 01:31:02,280 --> 01:31:08,040 zoals ik al zei, onderschat de bijschriften van afbeeldingen niet, maar vertel liever 945 01:31:08,040 --> 01:31:18,800 waarom welke afbeeldingsinventarissen hier zijn opgenomen. Ja, dank je Andreas. Een heel interessant voorbeeld, 946 01:31:18,800 --> 01:31:22,640 aan zoiets had ik eerlijk gezegd nog niet eens gedacht. Ja, ik weet niet of 947 01:31:22,800 --> 01:31:27,360 een AI-beeld zou kunnen helpen en dan bespreken we het samen, ja de dochter zou 948 01:31:27,360 --> 01:31:32,760 wat minder bescheiden in beeld moeten worden gebracht of zoiets, wie weet. Heel interessant, dank je. 949 01:31:32,760 --> 01:31:40,800 Ja, ik denk dat we daarmee aan het einde zijn gekomen. Bedankt Ziko en Eva 950 01:31:40,800 --> 01:31:47,280 voor hun digitale deelname en bedankt aan het publiek voor hun deelname aan de discussie. Doei.