Polish subtitles for clip: File:Czy można ufać Wikipedii? debata 28 kwietnia 2023.webm
Jump to navigation
Jump to search
1 00:00:00,000 --> 00:00:02,300 z sondażu na początku. 2 00:00:03,300 --> 00:00:04,800 Zaczynamy transmisję. 3 00:00:04,800 --> 00:00:06,800 Tak już? 4 00:00:08,000 --> 00:00:09,000 Tak jest. 5 00:00:10,300 --> 00:00:12,700 To witam wszystkich na naszej. 6 00:00:14,900 --> 00:00:18,000 Zoom przysłał mi informację, że spotkanie jest nagrywane, ale 7 00:00:18,400 --> 00:00:24,300 spotkanie też jest transmitowane na żywo na profilach Wikimedia Polska i 8 00:00:24,300 --> 00:00:29,100 Polska Wikipedia w ramach wydarzeń, wydarzeń o czym można ufać w Wikipedii, 9 00:00:30,300 --> 00:00:34,300 więc będzie można je obejrzeć teraz na żywo i później i później z odtworzenia. 10 00:00:35,700 --> 00:00:41,100 Witam wszystkich serdecznie na pierwszym takim naszym webinarze. 11 00:00:42,400 --> 00:00:49,200 Przekazuję głos i już wygląd prowadzącej Mirelli Panek-Owsiańskiej, która 12 00:00:50,000 --> 00:00:52,600 przyjęła nasze zaproszenie do moderowania tej debaty. 13 00:00:52,600 --> 00:00:58,200 Dziękuję bardzo i będę czuwać z tyłu i patrzeć, co się dzieje na Facebooku i czy są 14 00:00:58,200 --> 00:01:01,500 jakieś pytania. W takich sytuacjach będę pozwalała się włączyć. 15 00:01:01,900 --> 00:01:02,500 Dziękuję. 16 00:01:03,700 --> 00:01:08,500 Dobry. Bardzo dziękuję za Wikimedia Polska za zaproszenie do moderowania tej 17 00:01:08,500 --> 00:01:14,000 debaty, ponieważ mamy dzisiaj wspaniałych gości i gościnie i bardzo ciekawy temat, 18 00:01:14,000 --> 00:01:22,700 więc mam nadzieję, że najbliższą godzinę spędzimy spierając się, dyskutując i 19 00:01:22,700 --> 00:01:27,900 jeszcze lepiej kwestie Wikipedii. 20 00:01:28,300 --> 00:01:34,000 A moimi gościniami są dzisiaj Małgorzata Kilian-Brzegorczyk, prezeska Stowarzyszenia 21 00:01:34,000 --> 00:01:36,100 Demagog. Dzień dobry, Małgosiu. 22 00:01:37,000 --> 00:01:38,100 Dzień dobry wszystkim. 23 00:01:38,100 --> 00:01:43,100 Dzień dobry. Doktor Klaudia Rosińska, autorka książki Fake News. Geneta istota 24 00:01:43,100 --> 00:01:46,400 przeciwdziałanie. Dzień dobry, witamy serdecznie. 25 00:01:46,500 --> 00:01:47,700 Dzień dobry, dzień dobry. 26 00:01:48,700 --> 00:01:51,700 Kamil Śliwowski, OtwarteZasoby.pl. 27 00:01:52,200 --> 00:01:53,200 Witaj Kamilu. 28 00:01:54,800 --> 00:02:00,900 Doktor Tomasz Wszeborowski, prezes Wikimedia Polska, gospodarz nasz. 29 00:02:01,000 --> 00:02:01,800 Dzień dobry. 30 00:02:02,400 --> 00:02:03,600 Witam serdecznie. 31 00:02:03,600 --> 00:02:10,100 Jest szansa, że dołączy do nas profesor Dariusz Jemielniak, autor książki 32 00:02:10,100 --> 00:02:14,900 Życie wirtualne dzikich etnografia Wikipedii, ale ponieważ jest w podróży, 33 00:02:15,600 --> 00:02:21,600 więc niestety nie wiemy, czy uda mu się połączyć i czy do nas dotrze. 34 00:02:21,700 --> 00:02:27,600 Jeśli tak, to będziemy na pewno próbowali także się z panem profesorem 35 00:02:28,100 --> 00:02:29,800 połączyć telefonicznie. 36 00:02:29,800 --> 00:02:37,000 A ja zacznę od tego, kiedy zdałam zaproszenie do moderacji tej dyskusji, 37 00:02:37,300 --> 00:02:43,600 zamieściłam na Linkedinie taką ankietę z pytaniem właśnie, czy można ufać 38 00:02:43,600 --> 00:02:44,200 w Wikipedii. 39 00:02:44,800 --> 00:02:51,400 I chciałam zacząć od tych wyników, bo wyniki nie wiem, czy one są 40 00:02:51,400 --> 00:02:56,800 statystycznie słuszne, czy jest to oczywiście jakaś pewna tylko moja 41 00:02:56,800 --> 00:03:06,900 bańka, bo najwięcej odpowiedzi na to pytanie, 41% padło na stwierdzenie 42 00:03:06,900 --> 00:03:14,500 zależy od tematu. 34% powiedziało, że tak, 12% powiedziało, że nie, 43 00:03:14,800 --> 00:03:18,500 12% powiedziało, że trudno powiedzieć. 44 00:03:18,800 --> 00:03:24,000 Kiedy tak oczywiście podglądałam, kto z moich znajomych głosował na 45 00:03:24,000 --> 00:03:29,300 przykład na nie, że w Wikipedii jednak nie można wierzyć, żeby jakieś 46 00:03:29,600 --> 00:03:35,600 wnioski tutaj móc sformułować, zauważyłam, że dwie osoby mają 47 00:03:35,600 --> 00:03:39,600 wykształcenie prawnicze, więc być może to jakoś wpłynęło na ich wybór, 48 00:03:39,600 --> 00:03:44,800 ale pozostałych wniosków bardzo trudno jest sformułować. 49 00:03:45,100 --> 00:03:50,600 Więc zanim może zaczniemy naszą dyskusję, gdybyście wy mieli 50 00:03:50,600 --> 00:03:55,400 odpowiedzieć na pytanie, czy można ufać Wikipedii, to kto odpowiedziałby, 51 00:03:55,400 --> 00:03:59,700 że tak, ręka do góry, zwykła ręka wirtualna? 52 00:04:01,300 --> 00:04:06,100 No, tutaj mamy jedną, dwie ręce wirtualne, ok. 53 00:04:06,900 --> 00:04:08,400 Kto powiedziałby, że nie? 54 00:04:12,700 --> 00:04:15,000 Nadal mamy? Nie, nikogo nie mamy. 55 00:04:15,000 --> 00:04:17,200 A kto powiedziałby, że zależy od tematu? 56 00:04:17,200 --> 00:04:21,500 A kto powiedziałby, że trudno powiedzieć? 57 00:04:23,500 --> 00:04:25,100 No, dwie ręce, trudno powiedzieć. 58 00:04:25,100 --> 00:04:29,200 Czyli taki mamy rozkład na początku naszej debaty. 59 00:04:29,200 --> 00:04:34,200 Czy on się zmieni pod koniec, to zobaczymy, ale zacznijmy w takim 60 00:04:34,200 --> 00:04:42,000 razie od takiej edukacyjnej roli Wikipedii i tego, czy ona jest 61 00:04:42,000 --> 00:04:47,900 uznanym źródłem w edukacji, bo wiemy, że są nauczyciele, są szkoły, 62 00:04:47,900 --> 00:04:53,600 wręcz uniwersytety, które wręcz zabraniają cytowania Wikipedii. 63 00:04:53,600 --> 00:04:57,500 Są z kolei nauczyciele i nauczycielki, którzy są zapalonymi 64 00:04:57,500 --> 00:05:02,300 wikipedystami i wikipedystkami i zachęcają swoich uczniów do tego, 65 00:05:02,300 --> 00:05:07,900 żeby tworzyć. Kamilu, ty pracujesz dużo z nauczycielami. 66 00:05:07,900 --> 00:05:13,200 Jaki oni mają stosunek do Wikipedii? Ja tylko uprzedzę, że jeśli się 67 00:05:13,200 --> 00:05:16,200 dużo poruszam albo w tle będzie coś słychać, to właśnie się obudził 68 00:05:16,200 --> 00:05:18,400 jeden z dwóch moich psów i teraz postanowił 69 00:05:20,900 --> 00:05:24,200 porozmawiać też i pozaczepiać. 70 00:05:25,400 --> 00:05:29,100 Ale póki nie gryzie do nogawki, to przygotowałem się trochę na to 71 00:05:29,100 --> 00:05:31,600 pytanie, bo tak podejrzewałem, że możesz mnie właśnie o to pytać. 72 00:05:31,600 --> 00:05:38,300 I nawet sobie zgooglałem, jakie tytuły artykułów publikujemy w 73 00:05:38,300 --> 00:05:41,400 działce edukacyjnej, od kiedy Wikipedia powstała. Tak jak Tomasz 74 00:05:41,400 --> 00:05:44,200 powiedział na początku, chwilę przed naszą rozmową, że ten szczyt 75 00:05:44,200 --> 00:05:46,100 edytowania to były pierwsze lata Wikipedii, 76 00:05:49,200 --> 00:05:53,300 poprzednich dwie dekady temu, końcówka 2000 lat. 77 00:05:54,000 --> 00:05:56,900 Wtedy sobie zadawaliśmy to samo pytanie, czy można ufać Wikipedii? 78 00:05:56,900 --> 00:06:00,800 No i edukacja tak bardzo, bardzo ostrożnie podchodziła do tego 79 00:06:00,800 --> 00:06:04,900 raczej na zasadzie, no może tak ma to pewną wartość, nauka krytycznego 80 00:06:04,900 --> 00:06:09,100 myślenia, weryfikowania faktów, możemy się czegoś nauczyć od 81 00:06:09,100 --> 00:06:13,000 wikipedystów, wikipedystek, ale lepiej nie ufać, bo to się za szybko 82 00:06:13,000 --> 00:06:16,500 zmienia i dużo bardzo było takiego właśnie niepewności i nieufności. 83 00:06:17,700 --> 00:06:21,200 I jak patrzę sobie po artykułach takich przeciętnych, to mam wrażenie, 84 00:06:21,200 --> 00:06:25,700 że przynajmniej w takim publicznym wydaniu tej debaty za dużo w edukacji 85 00:06:25,700 --> 00:06:27,800 nie dorośliśmy od tamtego momentu. 86 00:06:27,800 --> 00:06:32,800 Znaczy cały czas mamy taką tendencję, że zakładamy nieufność do Wikipedii, 87 00:06:32,800 --> 00:06:36,400 do źródeł internetowych nawet w ogóle, znaczy szerzej niż tylko do Wikipedii. 88 00:06:37,600 --> 00:06:41,200 I trochę mniej czego żałuję, chociaż to się bardzo zmienia, bardzo dużo 89 00:06:41,200 --> 00:06:43,900 projektów i działań w WIDZ-u się zmienia i widać to po nauczycielach i 90 00:06:43,900 --> 00:06:47,000 nauczycielkach, że ich nastawienie też się zmieniło. 91 00:06:48,100 --> 00:06:51,900 Mało jest takiej dyskusji o tym, jak z różnych powodów jest różna jakość 92 00:06:51,900 --> 00:06:53,100 różnych źródeł internetowych. 93 00:06:53,100 --> 00:06:56,600 Mi się wydaje też bardzo ważne teraz, kiedy wchodzą coraz bardziej 94 00:06:56,600 --> 00:06:58,800 powszechnie generowane automatycznie treści. 95 00:06:59,500 --> 00:07:03,000 No i większa cała dyskusja tego, ok, komu w ogóle i dlaczego ufamy w internecie, 96 00:07:03,000 --> 00:07:03,900 z jakich powodów? 97 00:07:05,000 --> 00:07:08,800 Ja też podniosłem rękę wcześniej jako edukator i jako taka osoba, która 98 00:07:08,800 --> 00:07:12,300 nauczycieli i nauczycielki przekonuje do ufania Wikipedii, nie dlatego, żeby 99 00:07:12,300 --> 00:07:17,200 jakiemukolwiek źródłu ufać bezwarunkowo, ale dlatego, że zaufanie do Wikipedii 100 00:07:17,300 --> 00:07:20,600 zawsze musi polegać na tym, że ja muszę zrozumieć, jak ona działa, żeby jej 101 00:07:20,600 --> 00:07:25,300 zaufać. To nie jest takie, kupiłem książkę i zrzucam odpowiedzialność na 102 00:07:25,300 --> 00:07:29,300 wydawcę albo na autora. Znaczy tutaj ten układ jest trochę inny i myślę, że 103 00:07:29,300 --> 00:07:32,300 nauczycielom, nauczycielkom jest wyjątkowo przydatny ten układ, w którym 104 00:07:32,300 --> 00:07:36,000 Wikipedia się zmienia i zaufanie jej wymaga pewnej pracy. 105 00:07:36,000 --> 00:07:41,200 Ja muszę włożyć coś i muszę też włożyć coś do tej relacji razem z uczniami i 106 00:07:41,200 --> 00:07:45,400 uczennicami. Ale odpowiadając krótko na twoje pytanie, poprawiła się na pewno 107 00:07:45,400 --> 00:07:50,000 sytuacja. Po pierwsze nauczyciele i nauczycielki zaakceptowali moim zdaniem, 108 00:07:50,000 --> 00:07:54,200 że zarówno oni, jak i uczniowie i uczennice korzystają z Wikipedii powszechnie. 109 00:07:54,200 --> 00:07:57,900 Czy się do tego przyznajemy czy nie? Statystyka pokazuje, że gdybyśmy mówili, 110 00:07:57,900 --> 00:08:02,600 że nie korzystamy z Wikipedii, to kłamiemy. Tak powszechne jest jej wykorzystanie. 111 00:08:03,700 --> 00:08:08,100 Natomiast myślę, że co innego byłoby, gdybyśmy zaczęli sobie zadawać pytanie 112 00:08:08,100 --> 00:08:11,800 nie tylko, czy można ufać Wikipedii, ale jak Wikipedię mogę wykorzystać w edukacji. 113 00:08:12,100 --> 00:08:17,300 Bo to jest bardziej bolesny problem w sensie korzystania z treści, kopiowania z 114 00:08:17,300 --> 00:08:21,200 Wikipedii, wykorzystywania Wikipedii do tego, żeby zastępować pewne prace, czyli 115 00:08:21,200 --> 00:08:25,000 ta najprostsza ścieżka, której zawsze się nauczyciele boją i tego samego się boją 116 00:08:25,000 --> 00:08:28,500 od sztucznej inteligencji. Znacznie ciekawsze rzeczy zaczęły się pojawiać 117 00:08:28,500 --> 00:08:32,600 od paru lat również dzięki Wikipedii, czyli projekty współtworzenia treści. 118 00:08:33,100 --> 00:08:36,200 I to jest ta rzecz, której w ogóle w Wikipedii jeszcze 10 lat temu było bardzo 119 00:08:36,200 --> 00:08:40,800 mało, czyli współtworzenie treści również w szkole. A to jest bardzo ciekawy dla 120 00:08:40,800 --> 00:08:44,100 mnie kierunek i ciekawa ścieżka, żebyśmy też brali odpowiedzialność jako 121 00:08:44,100 --> 00:08:48,100 współtwórcy, zwłaszcza w szkole, zwłaszcza w akademii, w szkole i w 122 00:08:48,100 --> 00:08:51,600 uczelniach wyższych za współtworzenie Wikipedii. To jest bardzo dobra okazja 123 00:08:51,600 --> 00:08:54,700 do tego, żeby kształtować wikipedystów, wikipedystki i równocześnie kształtować 124 00:08:54,700 --> 00:08:57,600 kompetencje pewne w ten sposób. Rozgadałem się. 125 00:08:58,500 --> 00:09:02,400 Ale do tego wątku, o którym wspomniałaś, czyli sztucznej inteligencji, ja myślę, 126 00:09:02,400 --> 00:09:07,100 że jeszcze wrócimy, bo wiadomo, że jest to gorący wątek, ale trochę zostając 127 00:09:07,900 --> 00:09:12,700 przy młodych ludziach, przy krytycznym myśleniu, ja chciałabym, Małgosiu, 128 00:09:12,700 --> 00:09:18,100 Ciebie zapytać, bo fact-checking, którym zajmuje się Twoje stowarzyszenie, 129 00:09:18,100 --> 00:09:25,100 fundacja, stowarzyszenie? Stowarzyszenie. Stowarzyszenie Demagog ma trochę 130 00:09:25,100 --> 00:09:30,100 wspólnego z tym, co robi Wikipedia, a trochę jesteście gdzie indziej. 131 00:09:30,100 --> 00:09:34,800 Czy mogłabyś najpierw powiedzieć o tych wspólnych elementach, które macie? 132 00:09:35,500 --> 00:09:42,100 Oczywiście. Sam fact-checking opiera się na docieraniu do prawdy 133 00:09:42,100 --> 00:09:48,500 w ofercie o rzetelne źródła informacji, czyli te źródła, które są pierwotne, 134 00:09:48,500 --> 00:09:55,300 najbardziej aktualne. Bardzo często np. ta różnica pomiędzy myśleniami 135 00:09:55,300 --> 00:10:02,700 a Wikipedystami, i tu oczywiście prezes pewnie potwierdzi albo zaprzeczy, 136 00:10:03,300 --> 00:10:09,600 jest taka, że my np. nie uznajemy wszystkich medialnych doniesień jako źródło 137 00:10:09,600 --> 00:10:17,300 informacji. Dla nas dopiero potwierdzenie czegoś w konkretnym raporcie 138 00:10:17,300 --> 00:10:23,300 albo u konkretnego eksperta pozwoli nam wydać werdykt, czy coś jest prawdziwe, 139 00:10:23,300 --> 00:10:28,400 czy nie, więc to jest ta taka podstawowa różnica. Aczkolwiek u nas bardzo często 140 00:10:28,400 --> 00:10:34,200 w redakcji dyskusje, czy coś jest prawdą czy nie, również w oparciu o źródła, 141 00:10:34,200 --> 00:10:40,700 są dokonywane pomiędzy naszymi redaktorami. Zawsze również ta zasada 142 00:10:40,700 --> 00:10:45,800 obowiązuje w dziennikarstwie, że mamy podwójny cross-check, czyli analityka, 143 00:10:45,800 --> 00:10:50,500 który pisze analizę i cross-checkere, który sprawdza, czy na pewno te źródła, 144 00:10:50,500 --> 00:10:56,600 które są przypisane do testów, które sprawdzamy, są rzetelne, wiarygodne, 145 00:10:56,600 --> 00:11:04,500 najbardziej aktualne. Więc to jest ta różnica. Ale oprócz fact-checkingu 146 00:11:04,500 --> 00:11:09,700 zajmujemy się również edukacją, bo Kamil zaczął od edukacji młodych ludzi 147 00:11:09,700 --> 00:11:14,600 i od krytycznego myślenia. I my na co dzień prowadzimy Akademię Fact-Checkingu 148 00:11:15,400 --> 00:11:21,700 i również badamy to, jak sobie radzą młodzi ludzie z wyszukiwaniem informacji 149 00:11:21,700 --> 00:11:27,900 i na jakim poziomie są ich kompetencje cyfrowe i w ogóle rozumienie tego, 150 00:11:27,900 --> 00:11:34,200 w jaki sposób szukać rzetelnych informacji. Bo myślę, że jeśli chodzi 151 00:11:34,200 --> 00:11:42,100 o informacje, to ten szum informacyjny i ich ilość jest ogromna, ale bardzo często 152 00:11:42,800 --> 00:11:48,400 zatrzymujemy się może z różnych powodów w zasadzie, ale zatrzymujemy się 153 00:11:48,400 --> 00:11:52,200 na przykład na tych pierwszych wyszukiwaniach w Google. 154 00:11:52,200 --> 00:11:57,200 Czy wtedy, jeśli wychodzi Wikipedia, to właśnie uznajecie, że jest to 155 00:11:57,200 --> 00:12:02,800 wiarygodne źródło? Bo najczęściej Wikipedia będzie bardzo wysoko, 156 00:12:02,800 --> 00:12:08,400 prawda, w tych źródłach? Dla nas Wikipedia nie jest pierwotnym źródłem informacji, 157 00:12:08,400 --> 00:12:13,000 ona jest już przetworzona, ale my również zachęcamy młodych ludzi 158 00:12:13,000 --> 00:12:19,200 do korzystania z Wikipedii z pewnym zaznaczeniem, że jest to fajne źródło, 159 00:12:19,200 --> 00:12:24,900 żeby poznawać jakiś temat, poznawać, jakie są źródła, które zgłębiają go 160 00:12:24,900 --> 00:12:29,900 właśnie na bazie raportów czy jakichś analiz eksperckich. 161 00:12:30,700 --> 00:12:37,200 I to jest też bardzo ciekawe, żeby wchodzić dalej w temat i nie zatrzymywać 162 00:12:37,200 --> 00:12:40,900 się tylko na Wikipedii. Więc dla nas chyba najważniejsze jest to, 163 00:12:40,900 --> 00:12:46,300 żeby zachęcać młodych ludzi do szukania. Wikipedia jest bardzo fajnym źródłem 164 00:12:46,300 --> 00:12:52,600 na początek, kiedy w ogóle się nie rozumie np. jakiegoś tematu, jego złożoności. 165 00:12:53,300 --> 00:12:58,400 Wikipedia bardzo często kompleksowo opisuje tematy, swoje hasła. 166 00:12:58,400 --> 00:13:06,000 I to jest bardzo wartościowe, że jednak przez to, że Wikipedia, hasła tworzy 167 00:13:06,000 --> 00:13:11,200 bardzo duża społeczność, to tam też te różne poglądy się mocno ścierają. 168 00:13:11,900 --> 00:13:18,200 Więc to jest ważne w tym kontekście, że nie tkwimy tylko np. w jednej bańce, 169 00:13:18,200 --> 00:13:23,200 w jednym światopoglądzie. Więc to jest chyba szczególnie w dzisiejszym świecie 170 00:13:23,200 --> 00:13:24,000 bardzo ważne. 171 00:13:25,700 --> 00:13:31,800 O tym na pewno jeszcze będzie Tomasz mówił, o tym, czym jest właśnie ten słynny 172 00:13:31,800 --> 00:13:37,200 neutralny punkt widzenia, który Wikipedia stara się zachowywać i czy faktycznie 173 00:13:37,200 --> 00:13:42,500 w ogóle to jest możliwe. Ale ja chciałabym teraz zapytać Klaudię, która jest 174 00:13:42,500 --> 00:13:48,500 autorką książki m.in. o fake newsach. Czy kiedy pisałaś o fake newsach, 175 00:13:48,500 --> 00:13:54,700 to Wikipedia w ogóle się pojawiła w twojej książce i czy gdzieś ona sprzyja 176 00:13:54,700 --> 00:13:58,000 bądź nie sprzyja rozpowszechnianiu się np. fake newsów? 177 00:13:58,000 --> 00:14:05,600 Ja zacytowałam w mojej książce Wikipedię, dlatego też podniosłam dziś rękę 178 00:14:05,900 --> 00:14:11,500 pod hasłem trudno powiedzieć, kiedy zapytałaś o zaufanie, bo nie chciałabym 179 00:14:11,500 --> 00:14:17,600 być hipokrytką. Natomiast generalnie rzecz biorąc uważam, że w tym momencie 180 00:14:17,900 --> 00:14:24,700 w ogóle nie powinniśmy, czy nie wydaje mi się zasadne rozmawianie o Wikipedii 181 00:14:24,700 --> 00:14:31,800 jako o źródle wiedzy w tym znaczeniu, że tam powinniśmy szukać, że powinniśmy 182 00:14:31,800 --> 00:14:36,000 traktować ją jako encyklopedię, bo to jest bardzo często to skojarzenie. 183 00:14:36,500 --> 00:14:41,300 Ja też reprezentuję Akademię, więc pewnie będę tą osobą, która jednak często 184 00:14:41,300 --> 00:14:46,300 mówi studentom, proszę znaleźć inne źródło, ale prowadzę zajęcia, na których 185 00:14:46,300 --> 00:14:51,000 zachęcam do tego, aby zrozumieć jak działa Wikipedia i potraktować ją jako 186 00:14:51,000 --> 00:14:57,300 pewnego rodzaju bazę i teraz tutaj jest już do dyskusji bazę faktów, bazę 187 00:14:57,900 --> 00:15:03,900 opinii, bazę interpretacji faktów, bazę informacji w ogóle. Nie wiem jeszcze 188 00:15:03,900 --> 00:15:09,000 jak to dokładnie nazwać. Natomiast jeśli chodzi o dezinformację czy fake newsy, 189 00:15:10,300 --> 00:15:17,100 to przyznam szczerze, że trudno mi teraz mówić o fake newsach na Wikipedii, 190 00:15:17,100 --> 00:15:21,500 chociaż tutaj oddajmy sprawiedliwość demagogowi, który przygotował bardzo 191 00:15:21,500 --> 00:15:27,400 piękny raport mówiący o tym, że można stworzyć postać historyczną nawet na 192 00:15:27,400 --> 00:15:32,300 Wikipedii, która nie istniała albo całkowicie przepisać na nowo historię 193 00:15:32,300 --> 00:15:38,200 Chin, co też miało miejsce jakiś czas temu na Wikipedii, więc pewnie odpowiedź 194 00:15:38,200 --> 00:15:41,800 byłaby twierdząca, tak, na Wikipedii, tak jak we wszystkich innych źródłach 195 00:15:41,800 --> 00:15:46,600 internetowych może pojawiać się mnóstwo dezinformacji, może pojawiać się 196 00:15:46,600 --> 00:15:52,800 wprost kłamstwo, ale to nie czyni jej gorszą, w takim znaczeniu, że tutaj chyba 197 00:15:52,800 --> 00:15:58,200 powrócę do tego, co powiedział Kamil, wiarygodność źródeł internetowych 198 00:15:58,200 --> 00:16:04,500 sama w sobie jest problemem, tak, więc taki nawyk kwestionowania tychże źródeł 199 00:16:04,700 --> 00:16:10,000 jest całkowicie zasadny i potrzebny. Natomiast Wikipedia na tle tych źródeł 200 00:16:10,000 --> 00:16:17,100 wyróżnia się jednak tym, że daje nam potężny zasób źródeł pierwotnych. 201 00:16:17,100 --> 00:16:23,100 I teraz dyskusyjne jest z kolei to, czy te źródła są źródłami o dużej wartości, 202 00:16:23,100 --> 00:16:28,300 na przykład merytorycznej czy naukowej, bo zgodzę się, to znaczy może będę 203 00:16:28,300 --> 00:16:33,400 troszkę bardziej po stronie demagoga w tej waszej takiej konkurencji na to, 204 00:16:33,400 --> 00:16:39,100 jak tworzycie hasła czy tworzycie analizy, bo Wikipedia bardzo często 205 00:16:39,100 --> 00:16:43,200 powołuje się na bieżące teksty dziennikarskie i to jest sporym problemem 206 00:16:43,200 --> 00:16:47,000 według mnie, nie w kontekście dezinformacji, a w kontekście manipulacji, 207 00:16:47,000 --> 00:16:52,000 bo to, że ktoś o czymś pisze, to że jakiś temat jest głośny, sensacyjny, 208 00:16:52,000 --> 00:16:55,800 jest dyskutowany w mediach, nie zawsze jest zasadnym argumentem do tego, 209 00:16:55,800 --> 00:17:01,400 żeby tworzyć o nim hasło, bo paradoksalnie samo wytworzenie tego hasła już może 210 00:17:01,400 --> 00:17:05,600 wpłynąć negatywnie, w znaczeniu przekazać pewnego rodzaju manipulację 211 00:17:05,600 --> 00:17:11,000 czy dezinformację. I tutaj ja upatruję znacznie większego problemu, 212 00:17:11,000 --> 00:17:15,800 ja też pasjami przeglądam hasła, w których przyczepiam się do takich słówek, 213 00:17:15,800 --> 00:17:19,000 bardzo często czy studenci, czy ludzie, którzy nie są naukowcami, 214 00:17:19,000 --> 00:17:24,500 nie widzą różnicy w pewnych określeniach, a są to terminy w perspektywie naukowej 215 00:17:24,500 --> 00:17:30,000 bardzo różne. I tutaj przywołam mojego kolegę, dr. Pawła Jedynaka, 216 00:17:30,000 --> 00:17:38,400 który zawsze dzieli się takim przykładem z biologii, różnicy między zielenieniem 217 00:17:38,400 --> 00:17:45,700 a zazielenianiem się. Żadne z nas nie jest biologiem, ale tylko jeden z tych terminów 218 00:17:45,700 --> 00:17:50,600 jest terminem poprawnym i prawidłowym, drugi właściwie nic nie znaczy. 219 00:17:50,600 --> 00:17:55,000 Natomiast dla kogoś, kto nie będzie ekspertem, a będzie w społeczności wikipedystów, 220 00:17:55,000 --> 00:17:58,800 ta różnica może nie być taka oczywista i tak bardzo widoczna. 221 00:17:58,800 --> 00:18:04,000 I w tym znaczeniu takich błędów, nazwę to błędami, bo nie widzę tutaj 222 00:18:04,000 --> 00:18:08,900 jakiejś bardzo szkodliwej intencji, takich błędów na Wikipedii jest bardzo dużo. 223 00:18:08,900 --> 00:18:14,200 Lub opiniotwórczych sformułowań, które w encyklopediach czy wszelkiego rodzaju 224 00:18:14,200 --> 00:18:18,900 słownikach nie będą miały miejsca, na Wikipedii one też się pojawiają 225 00:18:18,900 --> 00:18:24,400 i mogą kierunkować naszą interpretację faktu. I dlatego zawsze ostrzegam studentów, 226 00:18:24,400 --> 00:18:30,300 żeby nie traktowali tego źródła jako źródła pierwotnego i ostatecznego, 227 00:18:30,300 --> 00:18:35,900 a jedynie jako pewnego rodzaju inspirację do dalszych poszukiwań, 228 00:18:35,900 --> 00:18:40,100 ale też do przejrzenia źródeł. I ja cenię Wikipedię głównie za to, 229 00:18:40,100 --> 00:18:43,800 że mogę skorzystać z jej bibliografii i właściwie nie czytam haseł, 230 00:18:43,800 --> 00:18:48,800 tylko od razu przechodzę do bibliografii i sprawdzam źródła pierwotne. 231 00:18:48,800 --> 00:18:54,900 Okej, to jest jeden ze sposobów na pewno korzystania z Wikipedii. 232 00:18:54,900 --> 00:19:00,000 Tomaszu, do Ciebie przychodzimy. Podniosłeś rękę, że można ufać Wikipedii, 233 00:19:00,000 --> 00:19:04,800 więc jakie argumenty masz na potwierdzenie swojej tezy? 234 00:19:04,800 --> 00:19:10,100 Dlaczego chciałbyś nas przekonać, że jednak można ufać Wikipedii? 235 00:19:10,100 --> 00:19:13,100 Ja odpowiedziałam trochę tak przekonnie ze swojej perspektywy, 236 00:19:13,100 --> 00:19:18,900 bo ja jestem wikipedystą od 20 lat i znam tę Wikipedię jak własną kieszeń, 237 00:19:18,900 --> 00:19:23,700 dlatego ja mogę ufać, bo ja bardzo łatwo mogę odróżnić dobre artykuły od słabych. 238 00:19:23,700 --> 00:19:27,300 I mam właśnie taką wiedzę, ale cieszę się, że już nie tylko ja, 239 00:19:27,300 --> 00:19:30,000 bo jak opowiadaliście, opowiadałyście wcześniej, 240 00:19:30,000 --> 00:19:33,100 to widzę, że sobie też doskonale radzicie z Wikipedią 241 00:19:33,100 --> 00:19:36,100 i to mnie właśnie bardzo cieszy, że mamy świadomych odbiorców 242 00:19:36,100 --> 00:19:40,300 treści takich jak Wikipedia, bo to jest właśnie narzędzie, 243 00:19:40,300 --> 00:19:43,900 które trzeba traktować z głową. Nikt nigdy nie mówi, 244 00:19:43,900 --> 00:19:46,900 zresztą my to wprost jako wikipedyści mówimy, 245 00:19:46,900 --> 00:19:49,900 jakbyście sobie zerknęli na jakikolwiek artykuł na Wikipedii, 246 00:19:49,900 --> 00:19:53,000 to jest na samym dole napisane, korzystasz z Wikipedii 247 00:19:53,000 --> 00:19:56,000 tylko na własną odpowiedzialność i wprost tłumaczymy, 248 00:19:56,000 --> 00:19:59,900 o co chodzi z tą Wikipedią. To jest projekt tworzony przez ludzi, 249 00:19:59,900 --> 00:20:02,700 którzy mają bardzo różne kompetencje, 250 00:20:02,700 --> 00:20:07,300 ludzi, którzy są w stanie poświęcić swój czas i swoje chęci, 251 00:20:07,300 --> 00:20:11,200 żeby zrobić to jak najlepiej, ale jak nawet słusznie zauważyła 252 00:20:11,200 --> 00:20:15,600 Klaudia, wielu tych ludzi nie odróżnia zielenienia od zazielenienia 253 00:20:15,600 --> 00:20:19,800 i już na tej podstawie widzimy, że można się czasami naciąć 254 00:20:19,800 --> 00:20:24,300 na jakimś artykule, więc my ostrzegamy, że rzeczywiście 255 00:20:24,300 --> 00:20:28,500 mogą się błędy takie znaleźć. Świadomie ostrzegamy, 256 00:20:28,500 --> 00:20:31,500 nie wierzcie we wszystko, co czytacie. Jedynie, 257 00:20:31,500 --> 00:20:35,400 może mogę zaraz taką działkę zareklamować, która jest 258 00:20:35,400 --> 00:20:38,600 bardziej wynikliwie sprawdzana, to są artykuły medyczne. 259 00:20:38,600 --> 00:20:42,400 Tam jednak to jest kwestia życia, zdrowia, tam jest ten dobór 260 00:20:42,400 --> 00:20:45,900 źródeł maksymalnie sprawdzany, żeby jednak uniknąć takich 261 00:20:45,900 --> 00:20:49,500 wątpliwych informacji, bo umówmy się, jeżeli przy jakimś sportowcu 262 00:20:49,500 --> 00:20:52,500 ktoś się pomyli i mu przyzna medal nie w tej dyscyplinie, 263 00:20:52,500 --> 00:20:56,100 którą zdobył lub też nie na tej olimpiadzie, no to ryzyko, 264 00:20:56,100 --> 00:20:59,600 że tak powiem społeczne tego byłoby niewielkie, tej pomyłki. 265 00:20:59,600 --> 00:21:02,900 W przypadku artykułów medycznych, gdy ktoś przedstawi coś 266 00:21:02,900 --> 00:21:05,700 błędnie, może mieć to szkodliwe skutki dla zdrowia i życia. 267 00:21:05,700 --> 00:21:09,100 Dlatego już jakby trochę odpowiedź, że ten temat jest bardziej 268 00:21:09,100 --> 00:21:12,100 wynikliwie pilnowany niż inny, jeśli chodzi o źródła. 269 00:21:12,100 --> 00:21:16,800 Jak wszyscy podkreślaliście, my dbamy o to, aby źródła były 270 00:21:16,800 --> 00:21:20,600 w artykułach i naszą zasadą jest weryfikowalność, czyli my nie 271 00:21:20,600 --> 00:21:24,800 możemy nic pisać z głowy, jako wikipedyści, musimy się opierać 272 00:21:24,800 --> 00:21:28,600 na źródłach. Jeżeli na przykład któryś z was by powiedział, 273 00:21:28,600 --> 00:21:32,100 a ja wiem, że tam jest błąd, bo na przykład mój dziadek był 274 00:21:32,100 --> 00:21:34,800 świadkiem tego wydarzenia i co prawda żadna książka tego nie 275 00:21:34,800 --> 00:21:38,500 opisała, ale ja wiem z własnych tam ust, że jego świadka wydarzenia, 276 00:21:38,500 --> 00:21:42,400 że to trzeba zmienić, bo data podana w artykułu jest błędna albo 277 00:21:42,400 --> 00:21:46,100 coś innego, to nam nie wolno tej informacji pozyskanej w ten 278 00:21:46,100 --> 00:21:50,100 sposób umieścić. Musimy poczekać, aż ona będzie wydana w jakimś, 279 00:21:50,100 --> 00:21:53,300 czy to czasopiśmie naukowym, czy gdzieś indziej w jakimś 280 00:21:53,300 --> 00:21:56,900 wiarygodnym źródle użyta, dopiero wtedy możemy ten nasz artykuł 281 00:21:56,900 --> 00:22:01,400 zmienić. Czyli rzeczywiście dążymy do tego, aby nasze artykuły 282 00:22:01,400 --> 00:22:05,200 były oparte na jakichś wiarygodnych, rzetelnych źródłach. Czy w 283 00:22:05,200 --> 00:22:08,000 rzeczywistości zawsze tak jest? No nie jest, świat nie jest 284 00:22:08,000 --> 00:22:12,400 taki zrobiony, że już gotowe mamy wszystkie artykuły. 285 00:22:12,800 --> 00:22:16,100 Wikipedia jest taką cyklopedią, która jest jednocześnie produktem 286 00:22:16,100 --> 00:22:20,700 i procesem. Jesteśmy w trakcie tworzenia. To też niektóre artykuły, 287 00:22:20,700 --> 00:22:23,500 jak widzicie, mają już praktycznie skończoną postać, bardzo 288 00:22:23,500 --> 00:22:27,400 kompletne, bardzo ciekawe, bardzo dobrze opracowane. Te wyróżniam 289 00:22:27,400 --> 00:22:30,800 jako wikipedyści. Jako czytelnik, jak widzicie, dobry artykuł, 290 00:22:30,800 --> 00:22:34,800 artykuł na medal, no to widzicie, że wikipedyści są z tych artykułów 291 00:22:34,800 --> 00:22:38,100 szczególnie zadowoleni i je polecają. Jeśli natomiast widzicie 292 00:22:38,100 --> 00:22:42,300 u góry szablon dopracować, brak źródeł, kłopoty z takim czy z innym 293 00:22:42,300 --> 00:22:47,000 aspektem, niestaranne tłumaczenie lub jakiś właśnie kłopot z 294 00:22:47,000 --> 00:22:50,500 neutralnością, to jako czytelnik jesteście lojalnie uszczerzeni, 295 00:22:50,500 --> 00:22:55,000 że z tym artykułem jest coś nie tak? Uważajcie. I patrzcie też na 296 00:22:55,000 --> 00:22:58,900 źródła. To, co mówicie, to też mi się bardzo podoba. Jakość artykułu 297 00:22:58,900 --> 00:23:01,800 zależy też od źródeł w nich użytych. Jeżeli widzimy dobre, solidne 298 00:23:01,800 --> 00:23:06,400 nazwiska naukowe, wydawnictwa i faktycznie to jako przepisy są 299 00:23:06,400 --> 00:23:10,700 użyte w tym artykule, to nasze zaufanie do niego rośnie. Jak widzicie 300 00:23:10,700 --> 00:23:15,100 jakieś słabej jakości artykuły, powiedzmy z internetu jedynie, 301 00:23:15,500 --> 00:23:18,100 to co niestety przy tych najnowszych wydarzeniach to jest prawda, 302 00:23:18,100 --> 00:23:20,700 no tylko takie się pojawiają, póki jeszcze nie ma lepszego 303 00:23:20,700 --> 00:23:25,100 opracowania jakiegoś naukowego, no to takie artykuły, tak powiemy, 304 00:23:25,100 --> 00:23:29,300 są z dystansem. Więc ta odpowiedź jest taka, jest prawda. 305 00:23:29,300 --> 00:23:32,000 Na pewno będziemy do tej wracać. Zanim jeszcze, bo Klaudia 306 00:23:32,000 --> 00:23:36,200 chciała coś dodać, ale ja chciałam zacytować fragment książki, 307 00:23:36,200 --> 00:23:39,400 która też trochę nas dzisiaj tu zgromadziła, 308 00:23:40,400 --> 00:23:44,400 książka Amie Brookman, Czy można ufać Wikipedii, została właśnie 309 00:23:44,400 --> 00:23:48,000 wydana, przetłumaczona na język polski. I tam jest takie zdanie, 310 00:23:48,200 --> 00:23:52,600 kiedy zmiana wsparta jest mocnymi dowodami, setki ochotników 311 00:23:52,600 --> 00:23:58,900 poradzą sobie lepiej niż kilku ekspertów. I to jest jeden z tych 312 00:23:59,200 --> 00:24:03,100 argumentów, który ma pokazać, że nie zawsze tylko ta wiedza 313 00:24:03,100 --> 00:24:09,200 ekspercka może być tą najlepszą, ale że jednak te właśnie setki 314 00:24:09,200 --> 00:24:15,600 tysięcy czy tysiące ludzi, którzy angażują swój czas, mając dobre 315 00:24:15,800 --> 00:24:21,200 wsparcie dowodowe, może jednak tworzyć wartościową 316 00:24:21,200 --> 00:24:25,100 i wiarygodną treść. Czy ty się zgadzasz z tym zdaniem, Tomku? 317 00:24:25,900 --> 00:24:29,000 Właśnie ten temat, który bardzo ciekawy był w książce, na przykład 318 00:24:29,000 --> 00:24:32,900 podano, że jakieś oznaczenie ptaków było tam przedstawione, 319 00:24:32,900 --> 00:24:37,200 że jeżeli robi to niezależnie od siebie kilkunastu ekspertów, 320 00:24:37,200 --> 00:24:41,000 amatorów, takich, którzy tylko zdobyli to doświadczenie bez 321 00:24:41,000 --> 00:24:44,200 jakiegoś naukowego wykształcenia, ale właśnie podobnie, tak 322 00:24:44,200 --> 00:24:48,300 jak wikipedyści często taką drogą takiej edukacji poprzez to, 323 00:24:48,300 --> 00:24:52,300 że korzystają z jakiegoś tam, powiedzmy, wytycznych i tylko 324 00:24:52,300 --> 00:24:56,200 się szkolą w ten sposób, że oni mają większą tam 99-procentową 325 00:24:56,200 --> 00:24:59,600 nawet skuteczność niż jeden czy dwóch ekspertów, którzy 326 00:24:59,700 --> 00:25:02,200 no, przeznaczasz większej liczbie obserwacji mają prawo 327 00:25:02,200 --> 00:25:04,500 częściej się pomylić, mają troszkę niższą tam skuteczność, 328 00:25:04,500 --> 00:25:08,200 tam 97% bodajże. I czy tak samo jest z wikipedystami? 329 00:25:08,400 --> 00:25:11,800 Jeżeli jest jakieś wydarzenie, rzeczywiście często tutaj, 330 00:25:12,300 --> 00:25:15,100 powiedzmy, ktoś dostał nagrodę Nobla, tak? Zobaczcie, co się 331 00:25:15,100 --> 00:25:18,300 teraz dzieje z biogramem tej osoby. Wcześniej często jakiś tam 332 00:25:18,300 --> 00:25:22,100 mało edytowany biogram w ciągu kilku godzin, na to rozrasta 333 00:25:22,100 --> 00:25:25,300 się, nawet w świetnej postaci. Jakby się tam gdzieś pojawił 334 00:25:25,300 --> 00:25:28,600 błąd, to rzeczywiście grono osób, które to robi, natychmiast 335 00:25:28,600 --> 00:25:31,900 go poprawi i ten biogram w ciągu kilku godzin, kilku dni 336 00:25:31,900 --> 00:25:34,800 maksymalnie, stanie się fajnym, dobrym źródłem informacji. 337 00:25:35,000 --> 00:25:38,200 Na pewno jednym z najlepszych w internecie. Natomiast czy to 338 00:25:38,200 --> 00:25:41,700 jest prawda zawsze i wszędzie? No, umówmy się, nie mamy setek 339 00:25:41,700 --> 00:25:45,000 wolontariuszy do każdego tematu, która by umiała każdy temat 340 00:25:45,000 --> 00:25:47,400 tak dopracować. Jeżeli mamy na przykład, nie wiem, jakiś temat 341 00:25:47,400 --> 00:25:50,800 szczególnie trudny, jakaś fizyka jądrowa, powiedzmy. No, może 342 00:25:50,800 --> 00:25:53,200 być tak, że mamy na przykład dwóch czy trzech wolontariuszy 343 00:25:53,400 --> 00:25:57,300 i jeżeli oni się pomylą, to mała szansa, że ja jako humanista, 344 00:25:57,300 --> 00:26:00,700 czy ktoś, prawda, z wykształceniem muzycznym czy innym, 345 00:26:00,700 --> 00:26:04,300 będzie umiał znaleźć ten błąd. Więc to nie jest tak, że mamy 346 00:26:04,300 --> 00:26:07,700 niestety setki ekspertów i to jest ten błąd, że no tutaj są 347 00:26:07,700 --> 00:26:11,300 wolontariusze. Ludzie z środowiska akademickiego, no nie 348 00:26:11,300 --> 00:26:14,700 zawsze mają ochotę i czas, aby poprawiać te artykuły, choć 349 00:26:14,700 --> 00:26:18,900 ta współpraca też pojawia się coraz w większym zakresie, ale 350 00:26:18,900 --> 00:26:22,800 niestety to jest taki trochę minus tego, że niektórzy wolą tą 351 00:26:22,800 --> 00:26:26,100 Wikipedię krytykować i się z niej wyśmiewać, niż nich pomóc 352 00:26:26,100 --> 00:26:30,500 powiedzieć, jak to zrobić, czy samemu. Choć krzyk klikni 353 00:26:30,500 --> 00:26:33,700 edyty i może każdy z nas nacisnąć, nie? To nie jest zastrzeżone 354 00:26:33,700 --> 00:26:37,000 tylko dla tych nielicznych Wikipedyzmów. Tak, zachęcamy po 355 00:26:37,000 --> 00:26:39,900 naszym webinarze, żeby każdy spróbował na przykład 356 00:26:39,900 --> 00:26:43,800 wyedytować jakieś hasło i zobaczyć, co się stanie, prawda? 357 00:26:43,800 --> 00:26:45,500 Klaudio, chciałaś coś dodać. 358 00:26:46,500 --> 00:26:50,600 Tak, tak, to znaczy zanim przejdę do tego cytatu, to 359 00:26:50,600 --> 00:26:54,000 chciałam dodać coś do tego, co mówił Tomasz w kontekście 360 00:26:54,000 --> 00:26:58,400 informowania użytkowników Wikipedii o tym, że nie jest to 361 00:26:58,400 --> 00:27:02,700 do końca wiarygodne czy pełne źródło informacji. Otóż jest 362 00:27:02,700 --> 00:27:05,900 to do rozważenia dla Ciebie, Tomku i w ogóle dla Wikimediów, 363 00:27:05,900 --> 00:27:10,500 czy warto to robić na dole. Według mnie i z moich doświadczeń, 364 00:27:10,500 --> 00:27:14,300 ale też z tego, jak analizujemy korzystanie w ogóle z mediów 365 00:27:14,300 --> 00:27:18,700 i jakość uwagi użytkowników mediów, wynika, że rzadko 366 00:27:18,700 --> 00:27:22,600 kto dociera do końca tekstu, a już na pewno nie dociera 367 00:27:22,600 --> 00:27:26,100 do niego w pełni skupiony, tak aby jeszcze na nowo krytycznie 368 00:27:26,100 --> 00:27:30,300 ten tekst przeanalizować. No i w tym znaczeniu raczej nie 369 00:27:30,300 --> 00:27:33,200 jest to skuteczna metoda. Oczywiście z punktu widzenia 370 00:27:33,200 --> 00:27:37,400 Wikipedii jest to pewien argument w stylu mamy jasność, 371 00:27:37,400 --> 00:27:42,100 mówimy użytkownikom, ale na ile to do nich dociera, mam duże 372 00:27:42,100 --> 00:27:45,200 wątpliwości. Wydaje mi się, gdyby na początku było oznaczenie 373 00:27:45,500 --> 00:27:48,400 to hasło nie jest jeszcze skończone albo to hasło nie jest 374 00:27:48,400 --> 00:27:54,100 w pełni sprawdzone czy wiarygodne, być może wtedy ta wiedza 375 00:27:54,400 --> 00:27:57,900 przekazywana w nim byłaby nieco, mówię o błędnej wiedzy, 376 00:27:57,900 --> 00:28:02,000 jeżeli się taka pojawia, byłaby nieco bardziej zneutralizowana. 377 00:28:02,000 --> 00:28:08,000 A wracając do cytatu, który wskazałaś, no ja jestem 378 00:28:08,000 --> 00:28:11,700 przeciwniczką demokratyzacji wiedzy w takim znaczeniu, 379 00:28:11,700 --> 00:28:17,000 że im więcej osób tak myśli, to jest już z automatu uznawane 380 00:28:17,000 --> 00:28:21,000 za prawdziwe. Kiedyś Kopernik był jedną osobą na świecie, 381 00:28:21,000 --> 00:28:25,300 która uważała inaczej niż wszyscy inni i to on miał rację, 382 00:28:25,300 --> 00:28:33,000 więc trudno jest mi... Pytanie, czy to nie jest kwestia 383 00:28:33,000 --> 00:28:37,500 tylko wiedzy, tylko właśnie sprawdzania tej wiedzy w oparciu 384 00:28:37,500 --> 00:28:43,200 o źródła, że jednak grupa ludzi może to zrobić skuteczniej 385 00:28:43,700 --> 00:28:48,700 niż tylko i wyłącznie dwie osoby na przykład z tytułem naukowym. 386 00:28:48,700 --> 00:28:54,200 Zależy od ludzi. Oczywiście to, co jest dyskusyjne, 387 00:28:54,200 --> 00:28:56,200 czy faktycznie tak może być. 388 00:28:56,200 --> 00:29:01,200 No i uważam, że to wcale nie zależy od liczby, tylko od jakości 389 00:29:01,200 --> 00:29:04,500 tych ludzi, bo może być dwóch ludzi bardzo sprawnych, 390 00:29:04,500 --> 00:29:07,400 intelektualnie naukowców, którzy dobrze będą wiedzieli 391 00:29:07,400 --> 00:29:10,900 przede wszystkim, gdzie szukać, a może być kilka ludzi, 392 00:29:10,900 --> 00:29:13,500 którzy będą szukać w wielu różnych źródłach, ale akurat 393 00:29:13,500 --> 00:29:16,300 nie tych najbardziej wiarygodnych czy najbardziej precyzyjnych. 394 00:29:16,500 --> 00:29:19,700 Aczkolwiek oczywiście statystyka jest nieubłagana. 395 00:29:19,900 --> 00:29:22,900 Im więcej ludzi sprawdza, tym większa szansa, że sprawdzi 396 00:29:22,900 --> 00:29:25,700 to z wielu różnych aspektów. 397 00:29:26,100 --> 00:29:32,900 Pytanie tylko też o jakość tej pracy, ale też dam taki przykład, 398 00:29:32,900 --> 00:29:38,200 bo myślę, że to najlepiej poruszać takie przykładowe historie. 399 00:29:38,700 --> 00:29:43,800 Ja jakiś czas temu bardzo śledziłam anglojęzyczną Wikipedię 400 00:29:44,100 --> 00:29:48,100 w związku ze sprawą córki Brada Pitta i Angeliny Jolie, 401 00:29:48,100 --> 00:29:53,400 czyli Shiloh Jolie-Pitt. Bardzo długo ta dziewczynka na Wikipedii 402 00:29:53,400 --> 00:29:56,800 funkcjonowała pod zmienionym imieniem, bo wszystkie media, 403 00:29:56,800 --> 00:30:00,000 może nie wszystkie, ale większość mediów w Stanach Zjednoczonych 404 00:30:00,000 --> 00:30:02,260 tak ją nazywało, po czym 405 00:30:02,260 --> 00:30:07,720 okazało się, że jakoś tam ona chyba, nie wiem, czy zmieniła zdanie, 406 00:30:07,720 --> 00:30:13,200 już aż tak w to nie wnikam, ale chodzi o to, że nie było oficjalnego komunikatu ze strony rodziny 407 00:30:13,480 --> 00:30:18,440 mówiącego o tym, żeby tak tę dziewczynkę w Wikipedii nazywać, ten tekst zniknął. 408 00:30:18,880 --> 00:30:24,040 I to jest też taki problem, który ja identyfikuję, czyli przez jakiś czas jakieś hasło funkcjonuje, 409 00:30:24,040 --> 00:30:30,960 jest poparte źródłami medialnymi, a potem znika z dnia na dzień i nie ma sprostowania, 410 00:30:30,960 --> 00:30:37,520 albo nie ma informacji, pomyliliśmy się, albo to było błędne hasło, to była dezinformacja. 411 00:30:37,520 --> 00:30:43,000 Jest po prostu brak hasła, ale ludzie, którzy je wcześniej przeczytali, zostają z przekonaniem, 412 00:30:43,000 --> 00:30:48,360 który sobie na podstawie tego hasła wyrobili. I pytanie, co zrobić z tą odpowiedzialnością. 413 00:30:48,360 --> 00:30:54,800 Myślę, że to jest bardzo ciekawy aspekt. Kamil, ty coś chciałeś dodać, a później chciałam 414 00:30:54,800 --> 00:31:04,200 chciałam cię jeszcze dopytać właśnie o tę AI i wiarygodność AI, czata GPT vs Wikipedii. 415 00:31:05,280 --> 00:31:10,560 Przepraszam, ja tylko wejdę tutaj z krótkimi komentarzami z Facebooka, 416 00:31:10,560 --> 00:31:13,080 które pojawiają się w trakcie waszej rozmowy. 417 00:31:13,080 --> 00:31:18,720 I one są takie, jeśli będziecie mieli przestrzeń na odniesienie się do tego, 418 00:31:18,720 --> 00:31:26,480 to byłoby świetnie. Maria Weronika Czmoch, to członkini zarządu WMPL pisze, 419 00:31:26,480 --> 00:31:31,720 zrobiłabym rozróżnienie źródła pierwotne i opracowanie. Wikipedia jest opracowaniem. 420 00:31:32,640 --> 00:31:38,520 Drugie też, też od Marysi, jest komentarz, zróbmy też rozróżnienie na polskojęzyczną 421 00:31:38,520 --> 00:31:43,760 Wikipedię i innojęzyczne Wikipedię, bo fejkowe postacie i historia Chin to nie na polskiej 422 00:31:43,760 --> 00:31:51,400 Wikipedii. Ewa, Amy Brukman w książce pisze, że taka internetowa społeczność jak wikipedyści 423 00:31:51,400 --> 00:31:54,040 trochę zastępuje spotkania w barze czy klubie. 424 00:31:54,600 --> 00:32:00,000 Dla wikipedystów nie jest ważniejsze edytowanie jako aktywność społeczna, a nie trzymanie rzetelności. 425 00:32:02,360 --> 00:32:06,800 Okej, to może na razie nam wystarczy, jak się odniesiemy do niektórych rzeczy. 426 00:32:06,800 --> 00:32:08,960 Wracam Kamilu do ciebie. 427 00:32:08,960 --> 00:32:14,880 Najpierw do tego, co chciałeś dodać, a później do czata i AI. 428 00:32:19,320 --> 00:32:24,880 Zapomniałem oczywiście włączyć mikrofon, ale komentarz i odniesienie się do tego, co mówił Tomasz i 429 00:32:24,880 --> 00:32:29,200 Klaudia, bo to w ogóle super ciekawy wątek pomiędzy wami się pojawił. 430 00:32:30,120 --> 00:32:35,320 I częściowo się zgadzam, a częściowo być może powiem coś bardzo kontrowersyjnego, więc niech 431 00:32:35,320 --> 00:32:39,240 będzie. Od tego też takie spotkania być może są. 432 00:32:40,040 --> 00:32:46,720 A propos tego chociażby przesunięcia informacji o tym, że jest to cały czas w edycji 433 00:32:47,080 --> 00:32:49,680 utwór, na który trzeba uważać z dołu na górę. 434 00:32:51,120 --> 00:32:51,600 Teraz jeszcze... 435 00:32:54,280 --> 00:32:55,440 Mam nadzieję, że go nie sprzycie. 436 00:32:56,440 --> 00:33:02,800 W każdym razie myślę, że bardzo wielu osób Wikipedia przejęła to, czym jest dziennikarstwo. 437 00:33:02,800 --> 00:33:07,000 I nawet jeżeli inaczej to traktujemy, to jest to źródło, które wiele osób traktuje jak źródło 438 00:33:07,000 --> 00:33:10,000 medialne. I dlaczego to jest dla mnie bardzo ciekawe? 439 00:33:10,000 --> 00:33:16,320 Dlatego, że im bardziej źródła medialne, internetowe zwłaszcza, przestajemy im ufać z wielu 440 00:33:16,320 --> 00:33:21,440 powodów, na przykład bo nie trzymają się tak samo skuteczności pewnych zasad dziennikarskich co 50-100 441 00:33:21,440 --> 00:33:25,360 lat temu, albo przynajmniej tak nam się wydaje, że kiedyś się trzymały lepiej tych zasad, dzisiaj się 442 00:33:25,360 --> 00:33:31,280 trzymają gorzej, to Wikipedia przynajmniej jest takim źródłem, które nawet jeżeli jest tam błąd albo 443 00:33:31,280 --> 00:33:36,240 zniknie jakiś artykuł, to coraz bardziej myślimy o tym i mówię o takich przeciętnych osobach, które 444 00:33:36,240 --> 00:33:38,320 z Wikipedii raczej czytają niż edytują. 445 00:33:38,680 --> 00:33:43,080 Mam poczucie, że to jest zasób, który podąża za jakimiś zasadami. 446 00:33:43,200 --> 00:33:44,840 Znaczy ma bardzo konkretne zasady. 447 00:33:44,840 --> 00:33:49,000 Są to zasady społeczności, są to zasady tego w jaki sposób nie zawsze mogą być idealnie 448 00:33:49,000 --> 00:33:52,320 działające. Ten przykład z artykułem znikającym jest dla mnie bardzo też ciekawy z takiej 449 00:33:52,320 --> 00:33:58,000 perspektywy faktycznie sprostowania Wikipedii, która no niestety nikt nie doczyta tego w dyskusji 450 00:33:58,000 --> 00:33:59,480 na przykład. Co się z tym stało artykuła? 451 00:33:59,480 --> 00:34:02,720 To jest też bardzo ukryte dla większości osób, które mogą to czytać. 452 00:34:03,240 --> 00:34:07,760 Natomiast myślę, że to, że w ogóle Wikipedia ma zestaw zasad, za którymi podąża i 453 00:34:07,760 --> 00:34:13,120 wikipedyści starają się normalizować to, co się dzieje w Wikipedii, żeby poprawić jakość, 454 00:34:13,120 --> 00:34:19,120 nawet jeżeli się pojawi właśnie błąd czy wandalizm, to to jest coś takiego, co powoduje, że 455 00:34:19,200 --> 00:34:22,960 ludzie mogą ufać Wikipedii odrobinę bardziej niż innym za sobą. 456 00:34:23,040 --> 00:34:27,240 I to jest dla mnie też argument dlaczego mogą ufać i powinni, właśnie dlatego, że te zasady są. 457 00:34:27,240 --> 00:34:31,760 Nie ufamy dlatego, że ktoś ma być nieomylny, możemy komuś ufać bardziej dlatego, że mimo 458 00:34:31,760 --> 00:34:33,080 wszystko ma jakieś zasady. 459 00:34:33,560 --> 00:34:37,360 Po naszej stronie jest ta odpowiedzialność, o której mówicie, żeby faktycznie ocenić czy ja biorę 460 00:34:37,360 --> 00:34:43,280 to czy nie. Natomiast to, że w ogóle jest źródło, które podąża za mnóstwem zasad i te zasady 461 00:34:43,280 --> 00:34:48,120 są np. dla mnie to jest bardzo ważne, nawet jeżeli w Wikipedii zdarzają się błędy, to dla mnie 462 00:34:48,120 --> 00:34:53,360 bardzo ważna jest możliwość różnorodności w Wikipedii, która jakby unika jednostronnego, 463 00:34:53,360 --> 00:34:57,720 bardzo silnego wpływu, który niestety jest bardzo częsty w mediach, które nawet jeżeli starają się 464 00:34:57,720 --> 00:35:02,560 być obiektywne, bardzo często ulegają konkretnym wpływom linii politycznych czy sponsorów. 465 00:35:03,400 --> 00:35:07,600 Osobna pewnie dyskusja, Wikipedia, zaufanie do Wikipedii versus do mediów. 466 00:35:08,080 --> 00:35:15,440 Natomiast myślę, że ten zestaw zasad to jest coś takiego, co jest tym, co powoduje, że możemy 467 00:35:15,440 --> 00:35:20,520 ufać bardziej. I to jest super ciekawe właśnie te kwestie UX-owe, takiego designu, które mogą 468 00:35:20,520 --> 00:35:23,800 komuś ułatwić zrozumienie z czym ma do czynienia, kiedy czyta Wikipedię. 469 00:35:23,800 --> 00:35:24,960 Super, bardzo fajne. 470 00:35:26,160 --> 00:35:32,080 Jedno zdanie o tym, czy bardziej Wikipedia jest wiarygodna, czy czat GPT dzisiaj? 471 00:35:33,320 --> 00:35:36,720 Pod tym względem przeszukałem książkę i przeczytałem te fragmenty książki, przynajmniej które 472 00:35:36,720 --> 00:35:40,320 tego dotyczyły, bo to mnie interesowało zupełnie szczerze najbardziej. 473 00:35:41,240 --> 00:35:46,360 Bo jest część dyskusji tego, że jakby jak Wikipedia jako autorzy i autorki Wikipedii mogą podejść do 474 00:35:46,360 --> 00:35:50,080 sztucznej inteligencji. I tutaj jak rozumiem jest już dyskusja o tym, jak traktować czat GPT i 475 00:35:50,080 --> 00:35:55,240 podobne narzędzia. Ale mnie bardziej interesuje coś, co wyłapałem dwa tygodnie temu w jednej z 476 00:35:55,240 --> 00:35:59,600 większych firm, która uczy modele językowe, czyli 477 00:36:00,160 --> 00:36:06,200 Large Language Models, która zapowiedziała, że szykuje model, który będzie mocno 478 00:36:06,200 --> 00:36:11,600 wytrenowany we Wikipedii, bo ich celem jest przygotowanie takiego czata, takiej wersji czata, 479 00:36:12,360 --> 00:36:18,200 która właśnie dla użytkownika, użytkowniczki będzie miała ten wyższy poziom zaufania. 480 00:36:18,200 --> 00:36:22,160 I to jakby wzbudziło mnie i zainteresowanie, i czerwone, i żółte, i zielone lampki. 481 00:36:22,320 --> 00:36:27,000 Bardzo ciekawy pomysł tego, że Wikipedia przyszła im jako taki pierwszy zestaw 482 00:36:27,000 --> 00:36:31,520 faktograficzny weryfikowania tego, co robi sztuczna inteligencja. 483 00:36:32,440 --> 00:36:36,960 Pokusa być może bardzo ciekawa, słuszna, że faktycznie Wikipedia będzie miała sporo danych, które 484 00:36:36,960 --> 00:36:42,200 mógłby ten czat zweryfikować, ten model weryfikować, ale równocześnie nadal będzie powielał 485 00:36:42,200 --> 00:36:44,440 wszystkie problemy, o których powiedzieliśmy od dzisiaj, od początku. 486 00:36:44,440 --> 00:36:48,760 Przynajmniej na przykład ta żywiołość Wikipedii, żywa edycja jej. Ale myślę, że to jest w ogóle 487 00:36:48,760 --> 00:36:53,400 ciekawe, że Wikipedia ma już tak wysoki status, że jak patrzymy sobie z czym weryfikować czat 488 00:36:53,400 --> 00:36:59,120 w GPT, to Wikipedia jest wysoko na tej liście tych rzeczy, z których mogliśmy go weryfikować. 489 00:36:59,760 --> 00:37:05,280 Ok, dzięki. Zaraz wrócę do Tomka i Klaudii, ale jeszcze Małgosiu do ciebie chciałam na chwilę 490 00:37:05,520 --> 00:37:12,200 wrócić, bo bardzo mi się spodobało, jak wy na swojej stronie piszecie właśnie 491 00:37:12,200 --> 00:37:19,960 o fact-checkingu i podajecie też takie kategorie, czyli fałsz, przeróbka, 492 00:37:19,960 --> 00:37:23,040 częściowy fałsz, brak kontekstu, satyra, prawda. 493 00:37:24,240 --> 00:37:31,560 I tak się zastanawiam nad tym podziałem, czy on na przykład nie mógłby też w jakiś sposób 494 00:37:31,560 --> 00:37:37,280 zostać wykorzystany w Wikipedii, bo wydaje mi się, że on jest bardzo taki całościowy, że to nie jest 495 00:37:37,280 --> 00:37:42,720 taki zero-jedynkowy, prawda, albo fałsz, bo czasem nie da się tego właśnie tak powiedzieć, 496 00:37:42,960 --> 00:37:48,400 ale kwestia właśnie chociażby tego kontekstu, czy tego, że może to być jakiś częściowy fałsz 497 00:37:49,040 --> 00:37:54,520 jest bardzo ważny. Czy wy to sami wymyśliliście ten schemat, czy skorzystaliście z jakiegoś już 498 00:37:54,520 --> 00:37:55,400 istniejącego? 499 00:37:56,960 --> 00:38:03,480 My bazujemy na metodologiach międzynarodowych organizacji fact-checkingowych, 500 00:38:03,480 --> 00:38:11,480 więc akurat z tej kategorii korzystamy oznaczając fałszywe treści np. na Facebooku, 501 00:38:12,160 --> 00:38:17,560 czyli kiedy pojawiają się jakieś fałszywe artykuły, wpisy, ale też zdjęcia, my właśnie 502 00:38:17,560 --> 00:38:21,040 wykorzystujemy te kategorie. 503 00:38:21,400 --> 00:38:23,720 Tam jest też brakujący kontekst, np. 504 00:38:24,000 --> 00:38:32,120 To jest strasznie ważne, że bardzo często nawet jeśli definicja czy stwierdzenie jest prawdziwe, 505 00:38:32,120 --> 00:38:38,880 to np. jest uwiarygodnione zdjęciem, które jest zupełnie przedstawione w innym kontekście 506 00:38:39,520 --> 00:38:43,080 albo pochodzące z innego roku, więc to jest bardzo ważne. 507 00:38:43,600 --> 00:38:51,360 Właśnie ja też w tej książce akurat gdzieś tam się zatrzymałam na tym, w jaki sposób 508 00:38:51,440 --> 00:38:56,200 generalnie młodzi ludzie są narażeni na teorie spiskowe. 509 00:38:56,200 --> 00:39:06,480 Już nie tylko w kontekście Wikipedii, ale też tego, że Wikipedia jest źródłem informacji, 510 00:39:06,480 --> 00:39:09,880 które może odkłamywać te fałszywe informacje. 511 00:39:10,280 --> 00:39:16,880 I tam był taki wątek akurat smug chemicznych, chemtrailsów, które my na demagogu 512 00:39:16,960 --> 00:39:18,800 regularnie o nich piszemy. 513 00:39:18,840 --> 00:39:24,080 Więc to jest bardzo, bardzo stara teoria spiskowa, która ciągle do nas wraca. 514 00:39:24,080 --> 00:39:34,040 Chodzi głównie o to, że samoloty rozsiewają różne smugi chemiczne i w tym jest jakieś 515 00:39:34,040 --> 00:39:40,720 ukryte znaczenie, że one mogą nam zaszkodzić, może w ogóle unicestwić cały świat. 516 00:39:40,720 --> 00:39:46,000 Tam jest bardzo dużo różnych wątków, pod różnym kątem jest to analizowane. 517 00:39:46,000 --> 00:39:54,240 I dla mnie ciekawe było to, o czym ja myślałam, to od razu zajrzałam na Wikipedię, 518 00:39:54,240 --> 00:39:57,640 w jaki sposób opisuje akurat ten temat. 519 00:39:57,680 --> 00:40:07,240 I jest bardzo ciekawe skondensowany wpis, który pierwsze dwa słowa to teoria spiskowa 520 00:40:07,240 --> 00:40:15,440 i bardzo mnie to ucieszyło, że nie ma tam to lobby anty albo wierzące w tę teorię, 521 00:40:15,440 --> 00:40:21,400 że gdzieś tam nie jest silne i nie próbuje forsować swojej jakiejś tam agendy. 522 00:40:21,800 --> 00:40:29,480 Więc bardzo mnie to ucieszyło, dlatego że jakby patrząc na cały ekosystem mediów 523 00:40:29,480 --> 00:40:36,880 społecznościowych i to w jakich bańkach bardzo często żyjemy, to ja jednocześnie 524 00:40:36,880 --> 00:40:42,080 bardzo mocno rozumiem fenomen Wikipedii i się nim zachwycam, że pomimo że wiem, 525 00:40:42,080 --> 00:40:49,760 że te środowiska, które są anty, są bardzo często bardzo zmotywowane i bardzo aktywne. 526 00:40:50,240 --> 00:40:57,000 I pomimo tego Wikipedia przez lata wypracowała ten system oznaczania czy dodawania źródeł, 527 00:40:57,000 --> 00:41:04,600 który pozwala jakby pomimo tej takiej silnej agendy przedstawiać te informacje w sposób 528 00:41:04,600 --> 00:41:08,080 wiarygodny. Więc bardzo mnie to ucieszyło. 529 00:41:08,080 --> 00:41:15,800 I w tej książce był też taki ciekawy wątek, mam nadzieję, że dla naszych oglądających też, 530 00:41:16,520 --> 00:41:24,360 że autorka książki robiła badania dotyczące tego w ogóle skąd się ta teoria wzięła, 531 00:41:24,360 --> 00:41:30,000 skąd w ogóle ludzie weszli w tą bańkę tych smug chemicznych. 532 00:41:30,400 --> 00:41:36,080 I to było dla mnie ciekawe, że wszystko się zaczęło od YouTube'a i dopiero później 533 00:41:36,080 --> 00:41:40,240 zaczęło być pogłębiane na różnych grupach na Facebooku. 534 00:41:40,560 --> 00:41:46,040 Więc to też jest taki ciekawy wątek poruszony w tej książce. 535 00:41:46,040 --> 00:41:50,720 Ja myślę, że jak ktoś chce właśnie o teoriach spiskowych, to też tam właśnie w książce 536 00:41:50,720 --> 00:41:59,040 znajdzie kilka wątków ciekawych i takich właśnie z perspektywy badawczej pokazanych. 537 00:41:59,040 --> 00:42:03,000 OK, wracamy do Ciebie Tomku, bo chciałaś coś skomentować, a ja chciałam Cię o ten neutralny 538 00:42:03,000 --> 00:42:09,880 punkt widzenia jeszcze dopytać, który Wikipedia właśnie ma, chce mieć, dąży do 539 00:42:09,880 --> 00:42:12,680 niego. Byś trochę powiedział, na czym to polega. 540 00:42:14,200 --> 00:42:17,720 Poruszałem w tych naszych rozmowach tyle ciekawych wątków, że właściwie do każdego by 541 00:42:17,720 --> 00:42:19,680 chciało się odnieść i skomentować. 542 00:42:19,960 --> 00:42:24,600 Na szybko powiem tylko o tym czacie GPT, co mi w nim najbardziej przeszkadza. 543 00:42:25,280 --> 00:42:26,600 Tam nie ma nigdy żadnych źródeł. 544 00:42:26,680 --> 00:42:29,120 Nie wiemy skąd on bierze swoje zasoby. 545 00:42:29,120 --> 00:42:33,520 Wiemy tylko, że ma ich bardzo dużo i z różnych największych źródeł nie dał radę 546 00:42:33,520 --> 00:42:36,920 znać i w tym całą Wikipedię sobie załadował przecież też. 547 00:42:37,360 --> 00:42:42,200 Ale on nie powie nam w tej konkretnej odpowiedzi na podstawie czego jej udzielił. 548 00:42:42,440 --> 00:42:44,440 Tej informacji nie dostaniemy nigdy. 549 00:42:44,440 --> 00:42:47,720 Tylko tyle się dowiemy, że on stara się odpowiedzieć jak najlepiej i że sobie tam 550 00:42:47,720 --> 00:42:49,360 przetwarza to co ma i w ogóle. 551 00:42:49,360 --> 00:42:55,160 Ale to już jest dla nas bardzo wtedy niebezpieczne, bo musimy ufać, że zrobił to 552 00:42:55,160 --> 00:42:59,120 dobrze, a jak widzimy jakość tych odpowiedzi to na razie jest to jeszcze bardzo wstępny 553 00:43:00,360 --> 00:43:05,840 poziom i tutaj trzeba z naprawdę dużą ostrożnością do tego źródła podchodzić. 554 00:43:05,840 --> 00:43:10,160 Ale jak się spotkamy za sześć miesięcy, to być może już będziemy naprawdę w zupełnie 555 00:43:10,160 --> 00:43:13,040 innym miejscu patrząc jak szybko się tutaj rozwija. 556 00:43:13,240 --> 00:43:15,840 Więc trudno powiedzieć, bo czatecz ma duże opóźnienie. 557 00:43:15,840 --> 00:43:18,080 Ta jego baza się kończy tutaj dwa lata temu. 558 00:43:18,080 --> 00:43:21,480 Tak i on na przykład o to my często pytamy co się dzieje teraz. 559 00:43:21,480 --> 00:43:25,600 On na przykład chyba w ogóle nie jest świadom tego, że jest wojna w Ukrainie, bo po 560 00:43:25,600 --> 00:43:30,080 prostu się skończyły jego bazy zbierania dużo wcześniej i on ma duże kłopoty z 561 00:43:30,080 --> 00:43:30,760 aktualnością. 562 00:43:30,760 --> 00:43:37,400 Ale zostawmy czaty, czaty już tylko naszym takim dzisiaj jednym z wątków. 563 00:43:37,520 --> 00:43:42,960 Wróćmy do tego właśnie neutralnego punktu widzenia, bo to jest coś co jest takiego, 564 00:43:43,040 --> 00:43:47,360 co wyróżnia Wikipedię, ale kto definiuje co jest neutralnym punktem widzenia? 565 00:43:47,360 --> 00:43:52,480 To mamy tą zasadę generalnie dość dobrze opisaną wśród naszych zasad. 566 00:43:53,000 --> 00:43:57,720 Neutralny punkt widzenia tak naprawdę polega na tym, że wikipedyści w przypadku 567 00:43:57,720 --> 00:44:02,040 istnienia różnych poglądów, bo przede wszystkim do tego się odnosi, gdy są różne 568 00:44:02,040 --> 00:44:09,640 poglądy na przykład w nauce czy w dyskursie jakimś, co do istnienia czegoś lub 569 00:44:09,720 --> 00:44:15,440 wyjaśniania czegoś, to wikipedyści powinni przedstawić w sposób nie przedstawiający 570 00:44:15,440 --> 00:44:20,240 kto tu ma rację, tylko precyzujący zgodnie z najnowszym stanem rzeczy. 571 00:44:20,240 --> 00:44:26,040 Więc oczywiście też nie powiemy, że Kopernik wymyślił to, a jednak być może to jest 572 00:44:26,040 --> 00:44:30,720 odwrotnie. No jeżeli obecny stan rzeczy mówi, że jednak Kopernik ma rację, to 573 00:44:30,720 --> 00:44:32,080 przedstawiamy go w ten sposób. 574 00:44:32,320 --> 00:44:36,520 Ale jeżeli byśmy dzisiaj mieli nowe odkrycie, które dosłownie w tym roku powstało 575 00:44:36,520 --> 00:44:41,600 opublikowane, to my nie możemy jeszcze jako wikipedyści obecnego Kopernika już od 576 00:44:41,600 --> 00:44:46,960 razu wyróżnić, że no to już jest na pewno, poczekajmy z tym jak porządny encyklopediarz 577 00:44:46,960 --> 00:44:48,440 inni przyznane ją rację. 578 00:44:48,680 --> 00:44:52,440 Więc jeżeli mamy w Nature najnowszy artykuł, który mówi, że nie, to nieprawda z tym, co 579 00:44:52,440 --> 00:44:57,280 do tej pory wszyscy myśleli, musimy to podać, ale podajemy też te wcześniejsze 580 00:44:57,280 --> 00:45:03,680 teorie, jakie są w nauce i pozostajemy czytelnikowi tą swobodę do wyboru, więc 581 00:45:03,680 --> 00:45:08,640 nie oceniamy kto ma rację, staramy się opisać po prostu rzetelnie te różne punkty 582 00:45:08,640 --> 00:45:11,880 widzenia bez jakiegoś wartościowania ich. 583 00:45:12,600 --> 00:45:16,960 Tak, według możliwie najnowszego stanu w nauce, a to też się oczywiście często 584 00:45:16,960 --> 00:45:20,680 zmienia w niektórych naukach, więc to bywa też oczywiście problemem, bo jak się ma 585 00:45:21,040 --> 00:45:22,280 artykuł opisany np. 586 00:45:22,280 --> 00:45:26,880 w jakiejś dziedzinie, która się bardzo szybko rozwija, 15 lat temu, no to często już ta 587 00:45:26,880 --> 00:45:28,040 wiedza mogła się zmienić. 588 00:45:28,400 --> 00:45:32,920 Ale idea jest właśnie taka, że nie decydujemy, kto nam się gwarancuje. 589 00:45:32,920 --> 00:45:38,360 Przy politycznych pisach, tak? 590 00:45:38,360 --> 00:45:42,320 Dam Wam przykład, wiecie co, może my sobie wyobrazili coś konkretnego, np. 591 00:45:42,320 --> 00:45:47,160 skąd się wzięli Słowiany, gdzie oni pierwotnie mieszkali, zanim się rozprzestrzenili 592 00:45:47,160 --> 00:45:48,400 w naszej części Europy. 593 00:45:48,680 --> 00:45:54,160 Jak wiemy, w nauce są różne teorie, które precyzują te teorie, od Bajkału poprzez 594 00:45:54,160 --> 00:45:58,120 Ukrainę, od najróżniejszych miejscach, więc nie mogą wikpedyści polscy sobie 595 00:45:58,120 --> 00:46:01,920 pomyśleć, no dobra, nam się najbardziej podoba, że ci Słowianie mieli siedzibę tu i tu, 596 00:46:01,920 --> 00:46:05,080 więc to przedstawmy jako główne, poznań resztę tam jakoś na u boku. 597 00:46:05,400 --> 00:46:10,040 Musimy rzetelnie przedstawić te wszystkie i wtedy po prostu czytelnik zna ten stan 598 00:46:10,040 --> 00:46:12,000 rzeczy, jaki on jest według... 599 00:46:12,200 --> 00:46:15,080 Ale to Wysłowianie wydają mi się łatwiejsi np. 600 00:46:15,080 --> 00:46:16,320 niż polska polityka. 601 00:46:16,560 --> 00:46:23,920 Jak przy takim podziale, jaki mamy w społeczeństwie, jak są edytowane te 602 00:46:23,920 --> 00:46:25,440 polityczne hasła np. 603 00:46:25,440 --> 00:46:26,560 w polskiej Wikipedii? 604 00:46:26,560 --> 00:46:31,960 Czy tutaj ten neutralny punkt widzenia jest łatwy do uzyskania czy nie? 605 00:46:31,960 --> 00:46:32,920 Jakie masz poczucie? 606 00:46:33,440 --> 00:46:37,400 No tu jest właśnie to, co mówiliśmy, że wiesz, my mamy wikipedystów bardzo różnych, 607 00:46:37,400 --> 00:46:42,960 tak, czyli to, że mamy ludzi, którzy będą jakby patrzeć pod kątem tej uczciwości 608 00:46:42,960 --> 00:46:49,000 opisania polityków z różnych obozów, to jakby jakaś nieuczciwość, gdybyśmy chcieli np. 609 00:46:49,120 --> 00:46:51,240 nie wiem, zaburzyć te proporcje np. 610 00:46:51,240 --> 00:46:57,800 szeregowych działaczy partii X, odpisywalibyśmy np. bardzo dokładnie, a partii Y już nie, 611 00:46:58,000 --> 00:46:59,240 to ktoś by to zauważył. 612 00:46:59,240 --> 00:47:06,960 Więc ja uważam, że możemy się czuć zadowoleni, że mamy wysoki poziom raczej tych haseł o 613 00:47:06,960 --> 00:47:12,080 politykach, gdzie te fakty z życia też są prezentowane w sposób uczciwy, bo tu wiecie, 614 00:47:12,080 --> 00:47:15,480 zawsze jest najgorsze, jaka jest część artykułu najtrudniejsza do pisania? 615 00:47:15,480 --> 00:47:16,880 No kontrowersje, tak? 616 00:47:16,880 --> 00:47:22,200 Jakiś polityk zawsze coś zrobi i teraz ile czasów w artykule poświęcić miejsca na jakąś 617 00:47:22,200 --> 00:47:27,520 aferę z nim związaną, tak, że gdzieś był w prokuraturze, opowiażony o coś albo odpowiadał za 618 00:47:27,520 --> 00:47:32,520 coś. Więc to są oczywiście długie, burzliwe dyskusje i teraz na mocy właśnie jakiegoś 619 00:47:32,520 --> 00:47:37,640 konsensusu się buduje, że jak ta sekcja ma być szeroko ujęta. 620 00:47:37,720 --> 00:47:41,600 I np. jak ktoś przesadzi z tymi szczegółowościami np. 621 00:47:41,600 --> 00:47:46,280 jakiejś tam małą kwestii istotnej w biogramie polityka, która tym zajmuje media rzeczywiście 622 00:47:46,280 --> 00:47:50,920 w danym momencie bardzo mocno, bo się to o tym wszyscy mówią. 623 00:47:51,200 --> 00:47:55,680 Nawet w tym momencie jest taka tendencja do rozszerzenia tej sekcji ponad miarę, ale potem 624 00:47:55,680 --> 00:47:59,840 przychodzi ktoś bardziej ogarnięty i mówi, no dobra, to nie jest ponadczasowo tak ważne, żeby 625 00:47:59,840 --> 00:48:02,600 poświęcać temu ileś karpetów, wystarczy jedno zdanie. 626 00:48:03,000 --> 00:48:06,360 I się robi po prostu właśnie zgodnie z tą zasadą ważności, tak? 627 00:48:07,720 --> 00:48:13,000 Jakby, że tak powiem, mówię tak troszkę już w skrócie, bardziej tak upraszczając, no nadaje się 628 00:48:13,000 --> 00:48:16,360 temu odpowiednią wagę, tak? I uczciwie się podchodzi, tak? 629 00:48:16,360 --> 00:48:21,440 Ja zakładam, że po prostu nasz poziom, jeśli chodzi o Wikipedię, jeżeli chodzi o, że ten 630 00:48:21,440 --> 00:48:25,760 rozsądek polityczny jest naprawdę wysoki, bo o ile media często nie kryją się ze swoimi 631 00:48:25,760 --> 00:48:26,880 sympatiami, tak? 632 00:48:27,160 --> 00:48:32,040 To to to administratorzy, tak jak ja, to zwyty obrywają porówno od wszystkich stron. 633 00:48:32,200 --> 00:48:36,600 Czyli wygląda na to, że raczej jesteśmy dość obiektywni, bo, bo Krzysy nam zarzucają, że 634 00:48:36,600 --> 00:48:40,480 jesteśmy tutaj na pewnej swojej stronie, więc to już jest jakiś dobry przykład. 635 00:48:40,480 --> 00:48:44,040 Tak, jeśli z dwóch stron wam się obrywa, to być może... 636 00:48:44,040 --> 00:48:51,400 Ja już byłem od początków lat 2000, więc ja już wszystkie po kolei te partie, jakie tam 637 00:48:51,400 --> 00:48:56,400 mnie rządziły, to pamiętam, bo wszyscy po kolei tam czasami pisali, że no to ich to my się 638 00:48:56,400 --> 00:48:59,000 tutaj, prawda, o nich za mało, czy nie tak? 639 00:49:01,840 --> 00:49:06,480 To jest taki aspekt, który nas łączy, że dokładnie tak samo to wygląda wśród 640 00:49:06,480 --> 00:49:14,080 fact checkerów, że my na koniec dnia mówimy, ale to wy oceniacie i to wy później 641 00:49:14,520 --> 00:49:17,080 decydujecie, czy dla was to jest wiarygodne, czy nie. 642 00:49:17,320 --> 00:49:23,880 My wam przedstawiamy fakty, no a że nie wszyscy uznają coś takiego, jak istnieje 643 00:49:23,880 --> 00:49:29,800 obiektywnego faktu, no to wtedy zaczyna się właśnie ten problem i przypisywanie tych 644 00:49:29,800 --> 00:49:32,160 takich łatek i przynależności. 645 00:49:32,160 --> 00:49:33,800 Ja mogę, bo już długo czekam. 646 00:49:33,800 --> 00:49:40,480 Tak, właśnie do Ciebie teraz już zmierzam, a potem tak naprawdę będziemy już taką 647 00:49:40,480 --> 00:49:44,240 końcową rundkę mieli, bo czas nam strasznie szybko płynie, ale Klaudio, proszę. 648 00:49:44,880 --> 00:49:50,600 Tak, odnosząc się do tego, co powiedziała Małgosia, fakty mogą być obiektywne, ale 649 00:49:50,600 --> 00:49:52,320 fakty to jeszcze nie jest wiedza. 650 00:49:52,680 --> 00:49:58,280 I tutaj płynnie przejdę do Tomasza, który mówił o tej neutralności bardzo pięknie, 651 00:49:58,280 --> 00:50:04,880 ale moim takim trochę kijem w mrowisko, który zawsze lubię wkładać jest to, czy 652 00:50:05,520 --> 00:50:10,320 takie rozumienie neutralności jako zaprezentowanie wszystkich, no w cudzysłowie 653 00:50:10,320 --> 00:50:15,440 oczywiście, poglądów, czy przekonań, czy teorii, czy aby na pewno to jest rzetelność. 654 00:50:15,680 --> 00:50:22,800 Dlatego twierdzę, że Wikipedia nie jest encyklopedią, bo w encyklopedii nikt nie 655 00:50:22,800 --> 00:50:29,880 będzie przedstawiał np. teorii, które są kompletnie niezasadne albo które są już 656 00:50:30,480 --> 00:50:37,040 powiedzmy w konsensusie naukowym w jakiś sposób zdementowane czy zdezaktualizowane. 657 00:50:37,560 --> 00:50:43,160 No i teraz chociażby case osób, które powiedzmy wierzą w płaską ziemię. 658 00:50:43,200 --> 00:50:49,760 To jest już teoria, już jakby są pewne źródła medialne, które ją propagują. 659 00:50:49,760 --> 00:50:56,520 Są jakieś argumenty, nawet wyjęte jakieś pojedyncze publikacje paranaukowe. 660 00:50:56,840 --> 00:51:02,080 I teraz czy warto z pozycji neutralności prezentować tego typu treści? 661 00:51:02,080 --> 00:51:06,800 Daję oczywiście taki prosty przykład, od razu można powiedzieć, że nie, ale to jest 662 00:51:06,800 --> 00:51:07,760 bardzo subtelne. 663 00:51:08,120 --> 00:51:18,040 Ja ostatnio w Polsce trwa dość duża debata po reportażu w TVN24 o pedofilii w Kościele. 664 00:51:18,040 --> 00:51:26,280 Przejrzałam sobie hasła na Wikipedii i tam jest kilka zdań zacytowanych z reportażu, 665 00:51:26,280 --> 00:51:32,200 chociaż inne publikacje dziennikarskie mówią już o tym, że to jest nieprawda. 666 00:51:32,440 --> 00:51:37,000 I teraz ja wiem, że Wy możecie za chwilę to zmienić, bo tak jak powiedziałeś w procesie 667 00:51:37,000 --> 00:51:41,720 dochodzenia do tego ostatecznego artykułu jest to możliwe. 668 00:51:42,000 --> 00:51:47,200 No ale część ludzi przeczyta ten artykuł teraz albo przeczytało go wcześniej i ta 669 00:51:47,200 --> 00:51:48,600 wiedza w nich zostanie. 670 00:51:48,600 --> 00:51:55,200 Więc w tym znaczeniu wydaje mi się, że jest wyzwanie przed Wikipedią, które, teraz 671 00:51:55,200 --> 00:52:00,040 wracam do tego wątku, do którego się zgłosiłam, czyli które paradoksalnie jest jej 672 00:52:00,040 --> 00:52:02,600 wielką szansą w walce z czatem GPT. 673 00:52:02,680 --> 00:52:09,280 Ja przynajmniej taką szansę widzę dla Wikipedii, dlatego że czat GPT nie ma dostępu 674 00:52:09,280 --> 00:52:15,920 do bibliotek, to jest celowo to zdjęcie za mną, do książek, które wikipedyści jako 675 00:52:15,920 --> 00:52:20,320 ludzie mogą przeczytać, a i przepisać do Wikipedii jako źródła. 676 00:52:20,320 --> 00:52:24,920 Czat GPT tego nie zrobi, on buduje swoją wiedzę na podstawie tylko i wyłącznie tych 677 00:52:24,920 --> 00:52:26,680 zasobów, które są w internecie. 678 00:52:27,080 --> 00:52:31,280 I teraz potencjał w kontekście też walki z teoriami spiskowymi, o których wspomniała 679 00:52:31,280 --> 00:52:35,720 wcześniej Małgosia, ale też w kontekście tych przyszłościowych zagrożeń, które niesie, 680 00:52:35,720 --> 00:52:38,120 na przykład to, że czat GPT wymyśla źródła. 681 00:52:38,120 --> 00:52:39,760 Ty powiedziałeś, że on ich nie podaje. 682 00:52:40,040 --> 00:52:45,200 Nie, nie, nie, on je podaje i to bardzo szczegółowo i bardzo często są one źródłami 683 00:52:45,200 --> 00:52:51,280 nieistniejącymi i osoba, która powiedzmy ma specjalistyczną wiedzę w danym temacie 684 00:52:51,440 --> 00:52:55,920 bardzo szybko to rozpozna, ale osoby, które tej wiedzy nie mają mogą uznać te źródła, 685 00:52:55,920 --> 00:52:58,560 które podaje czat GPT za wiarygodne. 686 00:52:58,880 --> 00:53:04,440 No a właśnie teraz dzięki temu, że Wikipedia ma te zasady, że ta społeczność ciągle nad tym 687 00:53:04,440 --> 00:53:11,960 pracuje, jest to w moim przekonaniu duża szansa do tego, żeby w jakiś sposób kognitywnie 688 00:53:11,960 --> 00:53:19,400 próbować neutralizować te błędy czy wypaczenia, które może generować ten model językowy, 689 00:53:19,400 --> 00:53:21,520 który wykorzystuje czat GPT. 690 00:53:22,920 --> 00:53:28,480 Dobrze, ja tutaj zrobię kropkę, przepraszam, bo chcę ad vocem szybko Tomkowi oddać głos, bo 691 00:53:28,480 --> 00:53:35,440 rozumiem odpowiedzieć, a potem przejdziemy już do rundki końcowej, bo niestety nasz czas się 692 00:53:35,440 --> 00:53:43,960 kończy, ale czat GPT na pewno dzisiaj się czerwieni, że tyle o nim mówimy, więc Tomku. 693 00:53:43,960 --> 00:53:48,520 Ja tylko chciałem sprecyzować, że neutralne punkty widzenia na pewno nie zrównuje wszystkich 694 00:53:48,520 --> 00:53:53,720 teorii tam starych, starożytnych z nowymi, najnowszymi, tylko po prostu według tego, jak 695 00:53:53,720 --> 00:54:00,680 najlepsze, najnowsze źródła twierdzą, tak, czyli na pewno nie będziemy według tego neutralnego 696 00:54:00,680 --> 00:54:07,440 punktu widzenia równoważyć źródeł sprzed 50 lat z nowymi, kiedy nowe już dawno udowodniły jakąś 697 00:54:07,440 --> 00:54:11,640 nieprawdziwość tych poprzednich teorii, tylko po prostu w historii zmian opiszemy, że, znaczy 698 00:54:11,640 --> 00:54:17,880 w historii zmian postępu danych badań, że kiedyś były takie, a takie poglądy, ale już 699 00:54:17,880 --> 00:54:23,080 przedstawimy je tylko jako historyczne, więc to jest oczywiście dla nas jasne, że neutralny punkt 700 00:54:23,080 --> 00:54:29,160 widzenia przedstawia tę najlepszą wiedzę, jaka istnieje teraz wśród badaczy, którzy się 701 00:54:29,160 --> 00:54:33,720 zajmują tym tematem, tak, i że jeżeli są, no przecież wiemy, że są różne poglądy czasami 702 00:54:33,720 --> 00:54:38,440 wciąż dzisiaj na różne tematy, czy w naukę społecznej, czy w jakichkolwiek innych, no to 703 00:54:38,680 --> 00:54:42,760 naszym obowiązkiem jest jedynie je przedstawić, nie pomijać tylko np. dlatego, że jesteśmy 704 00:54:42,760 --> 00:54:47,600 prywatni, zwolennikami tylko jednej z nich, ale zobowiązani jesteśmy przedstawić też te 705 00:54:47,600 --> 00:54:52,400 pozostałe, no więc dlatego się chciałem odnieść, no a… 706 00:54:52,400 --> 00:54:59,480 A wrócę do Ciebie za chwilę na rundkę taką już na końcu, a zacznę może rundkę końcową od 707 00:54:59,480 --> 00:55:09,000 Małgosi, pytanie jest dla Was wszystkich, co trzeba zrobić, żeby właśnie Wikipedia była 708 00:55:09,000 --> 00:55:15,960 bardziej wiarygodna, albo co Wy byście radzili Wikipedii, albo co my wszyscy możemy zrobić, 709 00:55:15,960 --> 00:55:22,640 żeby jakby to źródło faktycznie stało się jeszcze bardziej wiarygodne i żeby nie trzeba było 710 00:55:22,640 --> 00:55:26,880 się wahać, czy podnieść rękę przy pytaniu, czy możemy jej ufać, czy nie. 711 00:55:26,920 --> 00:55:27,520 Małgosiu. 712 00:55:29,080 --> 00:55:35,000 Myślę, że edukacja to jest najważniejsza w kontekście wiarygodności i doboru źródeł i według 713 00:55:35,000 --> 00:55:41,040 mnie to już wystarczy, jeśli będziemy mieć jakiś konsensus co do tego, jakie źródło jest 714 00:55:41,040 --> 00:55:47,800 wiarygodne, a jakie nie jest wiarygodne, bo to jest największe wyzwanie w dzisiejszym świecie, 715 00:55:47,800 --> 00:55:54,800 że przecież płaskoziemcy, o których Klaudia wspominała, też mają swoje internetowe źródła. 716 00:55:55,200 --> 00:56:02,360 I teraz, kiedy każdy ma swoje własne źródła, gdzie tutaj znaleźć te właściwe, które mówią o 717 00:56:02,360 --> 00:56:05,360 faktach, o właśnie tej wiedzy naukowej. 718 00:56:05,360 --> 00:56:12,520 Dlatego z mojej perspektywy mówienie o tych źródłach, więcej mówienia o źródłach na 719 00:56:12,520 --> 00:56:21,360 Wikipedii i takiej też edukacji wikipedystów na temat tego, dlaczego może to doniesienie 720 00:56:21,360 --> 00:56:25,640 medialne na temat jakiegoś raportu niekoniecznie jest adekwatne. 721 00:56:25,640 --> 00:56:28,440 Może warto sięgnąć dalej, poszukać głębiej. 722 00:56:28,440 --> 00:56:37,200 I ta myśl dotycząca edukacji, kompetencji cyfrowej też nam towarzyszy na co dzień w 723 00:56:37,200 --> 00:56:40,400 organizacji, dlatego też o tym wspominam. 724 00:56:40,760 --> 00:56:48,560 I w ogóle, jak opowiadałeś Tomasz o tej neutralności, to w ogóle nigdy nie myślałam o 725 00:56:48,560 --> 00:56:52,120 Wikipedii jako narzędziu walki z dezinformacją. 726 00:56:52,120 --> 00:56:58,480 I mam nadzieję, że to jest taki fajny początek, żeby też mocniej o tym mówić, że 727 00:56:58,480 --> 00:57:03,640 Wikipedia też może walczyć z dezinformacją, która jest coraz bardziej powszechna. 728 00:57:04,680 --> 00:57:06,040 Super, bardzo dziękuję. 729 00:57:06,040 --> 00:57:06,640 Kamilu. 730 00:57:08,880 --> 00:57:10,600 Runtka końcowa u ciebie. 731 00:57:10,600 --> 00:57:17,040 Głowa mi się teraz rozgrzała strasznie na koniec od tych kilku wątków, ale to może 732 00:57:17,040 --> 00:57:22,280 nietypowo, ponieważ ja się bardzo boję, że w gonitwie za tym, za umiejętnością 733 00:57:22,280 --> 00:57:27,520 dociekania i sprawdzania źródeł trochę będziemy przegrywać z technologią i ona zbyt 734 00:57:27,520 --> 00:57:31,000 szybko generuje nowe źródła i zbyt szybko możemy popełniać błędy. 735 00:57:31,000 --> 00:57:35,160 To widać w mediach w ogóle tradycyjnych internetowych, jak cokolwiek to jeszcze 736 00:57:35,160 --> 00:57:39,120 znaczy, które tak szybko gonią za tym, żeby raportować, że popełniają bardzo dużo 737 00:57:39,120 --> 00:57:40,480 błędu w sposób coraz łatwiej. 738 00:57:41,040 --> 00:57:44,840 I tylko sztuczna inteligencja i potem narzędzia przyspieszą to, że w źródłach nawet 739 00:57:44,840 --> 00:57:47,160 zaufanych błędów będzie coraz więcej. 740 00:57:47,960 --> 00:57:50,960 Więc zastanawiam się, a propos tego co powiedziałaś, Małgorzata, znaczy być może 741 00:57:50,960 --> 00:57:55,040 musimy pomyśleć i to jest dla mnie super ciekawe zadanie dla Wikipedii jako jednej z 742 00:57:55,040 --> 00:57:59,520 topowych stron internetowych na świecie, w jaki sposób my możemy uczyć tego 743 00:57:59,520 --> 00:58:03,800 dociekania i krytycznego myślenia trochę inaczej niż robiliśmy to teraz, bo wydaje mi 744 00:58:03,800 --> 00:58:08,320 się, że to powinno pójść głębiej niż tylko sprawdzaj więcej źródeł, sięgaj głębiej, 745 00:58:08,320 --> 00:58:13,640 doczytuj, bo tego nie będziemy w stanie robić i tutaj trochę zawsze przegramy tempem i 746 00:58:13,640 --> 00:58:17,200 szybkością analizy i generowania treści z maszynami. 747 00:58:17,880 --> 00:58:23,640 Więc żeby zupełnie nie rozpaść się i mieć komu ufać, ta Wikipedia w takiej roli 748 00:58:23,640 --> 00:58:28,280 właśnie trochę medialnej, bardzo tradycyjnej, to jest dla mnie coś bardzo istotnego. 749 00:58:28,280 --> 00:58:32,360 I jakby szukałbym takich rozwiązań, w których Wikipedia dla czytelnika, czytelniczki, 750 00:58:32,360 --> 00:58:38,160 który nie chce zostać naukowczynią, nie potrzebuje, nie ma czasu na to, jest godnym 751 00:58:38,160 --> 00:58:43,600 zaufania źródłem i być może Wikipedia w jakiś sposób w takiej opozycji do mediów, 752 00:58:43,600 --> 00:58:48,160 które robią to szybciej i nie mają takich zasad, może tak powiem właśnie trochę zwolnić 753 00:58:48,160 --> 00:58:52,000 to tempo, w jakim my patrzymy na informacje i szukamy cały czas tych najnowszych i 754 00:58:52,000 --> 00:58:56,040 najświeższych, no bo chociażby nie goni tak za klikami, tak jak gonią media. 755 00:58:56,320 --> 00:59:00,040 Więc jakby tego bym szukał i to jest myślę, że jakiś kierunek, który może wzmocnić 756 00:59:00,040 --> 00:59:01,040 zaufanie Wikipedii. 757 00:59:02,080 --> 00:59:03,560 Dziękuję bardzo. Klaudia. 758 00:59:03,560 --> 00:59:11,600 Ja już dałam kilka, mam wrażenie, takich pomysłów, które rozważałam, czyli przede 759 00:59:11,600 --> 00:59:16,760 wszystkim przeniesienie na górę tych informacji związanych z takim ostrzeganiem o 760 00:59:16,760 --> 00:59:22,400 tym, że np. dane hasło nie jest skończone albo nie jest jeszcze to wersja ostateczna lub 761 00:59:22,400 --> 00:59:27,240 ewentualnie jakiś inny system transparentności edycji. 762 00:59:27,240 --> 00:59:33,720 Myślę, że w ogóle transparentność jest słowem kluczem w przypadku budowania wiarygodności, 763 00:59:33,960 --> 00:59:40,000 bo ja rozumiem, że te zasady są, że społeczność je zna, ale nie do końca jest to 764 00:59:40,000 --> 00:59:47,080 jasne, jak czyta się już sam wytwór ostateczny, czyli to hasło, więc być może ten 765 00:59:47,080 --> 00:59:53,240 kierunek. Fajny był ten pomysł związany z kategoryzacją haseł. 766 00:59:53,240 --> 01:00:00,160 Mi jako naukowcowi od razu się to spodobało, bo może faktycznie można by było pokusić 767 01:00:00,160 --> 01:00:05,040 się o jakąś próbę stworzenia haseł bardziej akademickich i tych bardziej opartych, 768 01:00:05,040 --> 01:00:07,600 powiedzmy, na teraźniejszych źródłach medialnych. 769 01:00:07,600 --> 01:00:09,520 Wtedy łatwiej by było np. 770 01:00:09,840 --> 01:00:15,560 budować zaufanie wobec tych haseł akademickich, a te hasła medialne oparte na 771 01:00:15,560 --> 01:00:19,400 źródłach dziennikarskich traktować troszkę bardziej, powiedziałabym, jako 772 01:00:19,400 --> 01:00:24,120 ciekawostkę, czy jako źródło jeszcze wiedzy niepełnej czy niepewnej. 773 01:00:25,680 --> 01:00:27,760 Więc to super. 774 01:00:28,680 --> 01:00:33,040 Dziękuję bardzo i ostatnie zdanie do Tomasza prezesa. 775 01:00:34,200 --> 01:00:39,680 Z racji upełnionej funkcji możesz też powiedzieć nam, jakie Ty masz pomysły. 776 01:00:40,240 --> 01:00:44,120 Szkoda, że ostatnio, bo w tak miłym towarzystwie czas mija tak szybko i chciałoby się jeszcze 777 01:00:44,120 --> 01:00:49,880 te wątki dalej kontynuować, moim zdaniem chyba najważniejsi są ludzie, bo my mówimy 778 01:00:49,880 --> 01:00:54,920 o tych źródłach, tak, ale jeszcze jesteśmy wciąż na tym etapie, że człowiek jest 779 01:00:54,920 --> 01:01:00,280 potrzebny, który umie z nich skorzystać, tak, bo nawet jakbym wziął, prawda, 780 01:01:00,280 --> 01:01:06,720 najlepsze źródła z jakiegoś tematu i dał je osobie, która nie umie z nich korzystać, 781 01:01:06,720 --> 01:01:11,720 przypuszczam, jak mówiła Klaudia wcześniej, zrobilibyśmy zaraz z nich zła, słabych 782 01:01:11,720 --> 01:01:17,560 użytek, bo byśmy nie wiedzieli tak naprawdę o czym piszemy, tak, więc jeżeli damy komuś, 783 01:01:17,560 --> 01:01:21,240 kto nie jest gotowy do korzystania z tych źródeł, bo na przykład nie ma jakichś 784 01:01:21,360 --> 01:01:26,600 podstawowych przynajmniej doświadczeń z daną dziedziną, no to pewnie zrobi z nich słaby 785 01:01:26,600 --> 01:01:28,200 użytek, potrzebni są nam ludzie. 786 01:01:28,680 --> 01:01:33,640 Jeżeli będzie, Wikipedia będzie tak jak jej twórcy, zachęcam więc wszystkich, którzy są 787 01:01:33,640 --> 01:01:38,360 zainteresowani jakością jakiegoś tematu, czy walką z dezinformacją, czy polepszenia 788 01:01:38,360 --> 01:01:42,720 choćby tej działki, którą się interesujecie jako hobbyści, gdzie już macie jakąś wiedzę, 789 01:01:43,040 --> 01:01:46,680 korzystajcie z tych swoich najlepszych źródeł, jakie macie i zapraszam, edytujcie 790 01:01:46,680 --> 01:01:50,960 Wikipedię, bo to jest najlepsza metoda, jaką możecie zrobić, żeby ją poprawić, żebyśmy 791 01:01:50,960 --> 01:01:51,720 jej ufali. 792 01:01:53,240 --> 01:01:58,480 Mam nadzieję, że wszyscy oglądający nas spróbują wyedytować jakieś hasło Wikipedia, 793 01:01:58,480 --> 01:02:03,880 żeby zobaczyć. Jak widać, bardzo wiele jest pomysłów na to, jak zwiększyć wiarygodność 794 01:02:03,880 --> 01:02:10,920 tej organizacji, instytucji, tego zjawiska, jak często też o Wikipedii się mówi, 795 01:02:11,200 --> 01:02:16,080 od walki z dezinformacją przez uczynienie jej jeszcze lepszą platformą medialną, 796 01:02:16,120 --> 01:02:21,280 bardziej transparentną, być może z jakimś dodatkiem akademickim, ale na pewno też 797 01:02:21,560 --> 01:02:26,120 platformą bardzo społecznościową i budującą społeczność. 798 01:02:26,480 --> 01:02:29,000 Bardzo serdecznie dziękuję za naszą dyskusję. 799 01:02:29,000 --> 01:02:34,040 Moimi gościniami były dzisiaj Małgorzata Kilian-Grzegorczyk, prezeska Stowarzyszenia 800 01:02:34,040 --> 01:02:37,800 Demagog i dr Klaudia Rosińska, autorka książki Fake News. 801 01:02:37,800 --> 01:02:43,760 Geneza istota przeciwdziałania, a gośćmi Kamil Śliwowski, Otwarte zasoby i Tomasz 802 01:02:44,160 --> 01:02:46,600 Przeborowski, prezes Wikimedia Polska. 803 01:02:46,920 --> 01:02:50,440 Bardzo serdecznie dziękuję za naszą dzisiejszą dyskusję. 804 01:02:51,200 --> 01:02:52,200 Dziękuję. 805 01:02:55,240 --> 01:02:55,760 Dziękuję. 806 01:02:55,760 --> 01:02:58,840 Dziękuję bardzo. 807 01:02:58,840 --> 01:03:23,840 Nagrywanie się skończyło.