Polish subtitles for clip: File:Czy można ufać Wikipedii? debata 28 kwietnia 2023.webm

From Wikimedia Commons, the free media repository
Jump to navigation Jump to search
1
00:00:00,000 --> 00:00:02,300
z sondażu na początku.

2
00:00:03,300 --> 00:00:04,800
Zaczynamy transmisję.

3
00:00:04,800 --> 00:00:06,800
Tak już?

4
00:00:08,000 --> 00:00:09,000
Tak jest.

5
00:00:10,300 --> 00:00:12,700
To witam wszystkich na naszej.

6
00:00:14,900 --> 00:00:18,000
Zoom przysłał mi informację, że spotkanie jest nagrywane, ale

7
00:00:18,400 --> 00:00:24,300
spotkanie też jest transmitowane na żywo na profilach Wikimedia Polska i

8
00:00:24,300 --> 00:00:29,100
Polska Wikipedia w ramach wydarzeń, wydarzeń o czym można ufać w Wikipedii,

9
00:00:30,300 --> 00:00:34,300
więc będzie można je obejrzeć teraz na żywo i później i później z odtworzenia.

10
00:00:35,700 --> 00:00:41,100
Witam wszystkich serdecznie na pierwszym takim naszym webinarze.

11
00:00:42,400 --> 00:00:49,200
Przekazuję głos i już wygląd prowadzącej Mirelli Panek-Owsiańskiej, która

12
00:00:50,000 --> 00:00:52,600
przyjęła nasze zaproszenie do moderowania tej debaty.

13
00:00:52,600 --> 00:00:58,200
Dziękuję bardzo i będę czuwać z tyłu i patrzeć, co się dzieje na Facebooku i czy są

14
00:00:58,200 --> 00:01:01,500
jakieś pytania. W takich sytuacjach będę pozwalała się włączyć.

15
00:01:01,900 --> 00:01:02,500
Dziękuję.

16
00:01:03,700 --> 00:01:08,500
Dobry. Bardzo dziękuję za Wikimedia Polska za zaproszenie do moderowania tej

17
00:01:08,500 --> 00:01:14,000
debaty, ponieważ mamy dzisiaj wspaniałych gości i gościnie i bardzo ciekawy temat,

18
00:01:14,000 --> 00:01:22,700
więc mam nadzieję, że najbliższą godzinę spędzimy spierając się, dyskutując i

19
00:01:22,700 --> 00:01:27,900
jeszcze lepiej kwestie Wikipedii.

20
00:01:28,300 --> 00:01:34,000
A moimi gościniami są dzisiaj Małgorzata Kilian-Brzegorczyk, prezeska Stowarzyszenia

21
00:01:34,000 --> 00:01:36,100
Demagog. Dzień dobry, Małgosiu.

22
00:01:37,000 --> 00:01:38,100
Dzień dobry wszystkim.

23
00:01:38,100 --> 00:01:43,100
Dzień dobry. Doktor Klaudia Rosińska, autorka książki Fake News. Geneta istota

24
00:01:43,100 --> 00:01:46,400
przeciwdziałanie. Dzień dobry, witamy serdecznie.

25
00:01:46,500 --> 00:01:47,700
Dzień dobry, dzień dobry.

26
00:01:48,700 --> 00:01:51,700
Kamil Śliwowski, OtwarteZasoby.pl.

27
00:01:52,200 --> 00:01:53,200
Witaj Kamilu.

28
00:01:54,800 --> 00:02:00,900
Doktor Tomasz Wszeborowski, prezes Wikimedia Polska, gospodarz nasz.

29
00:02:01,000 --> 00:02:01,800
Dzień dobry.

30
00:02:02,400 --> 00:02:03,600
Witam serdecznie.

31
00:02:03,600 --> 00:02:10,100
Jest szansa, że dołączy do nas profesor Dariusz Jemielniak, autor książki

32
00:02:10,100 --> 00:02:14,900
Życie wirtualne dzikich etnografia Wikipedii, ale ponieważ jest w podróży,

33
00:02:15,600 --> 00:02:21,600
więc niestety nie wiemy, czy uda mu się połączyć i czy do nas dotrze.

34
00:02:21,700 --> 00:02:27,600
Jeśli tak, to będziemy na pewno próbowali także się z panem profesorem

35
00:02:28,100 --> 00:02:29,800
połączyć telefonicznie.

36
00:02:29,800 --> 00:02:37,000
A ja zacznę od tego, kiedy zdałam zaproszenie do moderacji tej dyskusji,

37
00:02:37,300 --> 00:02:43,600
zamieściłam na Linkedinie taką ankietę z pytaniem właśnie, czy można ufać

38
00:02:43,600 --> 00:02:44,200
w Wikipedii.

39
00:02:44,800 --> 00:02:51,400
I chciałam zacząć od tych wyników, bo wyniki nie wiem, czy one są

40
00:02:51,400 --> 00:02:56,800
statystycznie słuszne, czy jest to oczywiście jakaś pewna tylko moja

41
00:02:56,800 --> 00:03:06,900
bańka, bo najwięcej odpowiedzi na to pytanie, 41% padło na stwierdzenie

42
00:03:06,900 --> 00:03:14,500
zależy od tematu. 34% powiedziało, że tak, 12% powiedziało, że nie,

43
00:03:14,800 --> 00:03:18,500
12% powiedziało, że trudno powiedzieć.

44
00:03:18,800 --> 00:03:24,000
Kiedy tak oczywiście podglądałam, kto z moich znajomych głosował na

45
00:03:24,000 --> 00:03:29,300
przykład na nie, że w Wikipedii jednak nie można wierzyć, żeby jakieś

46
00:03:29,600 --> 00:03:35,600
wnioski tutaj móc sformułować, zauważyłam, że dwie osoby mają

47
00:03:35,600 --> 00:03:39,600
wykształcenie prawnicze, więc być może to jakoś wpłynęło na ich wybór,

48
00:03:39,600 --> 00:03:44,800
ale pozostałych wniosków bardzo trudno jest sformułować.

49
00:03:45,100 --> 00:03:50,600
Więc zanim może zaczniemy naszą dyskusję, gdybyście wy mieli

50
00:03:50,600 --> 00:03:55,400
odpowiedzieć na pytanie, czy można ufać Wikipedii, to kto odpowiedziałby,

51
00:03:55,400 --> 00:03:59,700
że tak, ręka do góry, zwykła ręka wirtualna?

52
00:04:01,300 --> 00:04:06,100
No, tutaj mamy jedną, dwie ręce wirtualne, ok.

53
00:04:06,900 --> 00:04:08,400
Kto powiedziałby, że nie?

54
00:04:12,700 --> 00:04:15,000
Nadal mamy? Nie, nikogo nie mamy.

55
00:04:15,000 --> 00:04:17,200
A kto powiedziałby, że zależy od tematu?

56
00:04:17,200 --> 00:04:21,500
A kto powiedziałby, że trudno powiedzieć?

57
00:04:23,500 --> 00:04:25,100
No, dwie ręce, trudno powiedzieć.

58
00:04:25,100 --> 00:04:29,200
Czyli taki mamy rozkład na początku naszej debaty.

59
00:04:29,200 --> 00:04:34,200
Czy on się zmieni pod koniec, to zobaczymy, ale zacznijmy w takim

60
00:04:34,200 --> 00:04:42,000
razie od takiej edukacyjnej roli Wikipedii i tego, czy ona jest

61
00:04:42,000 --> 00:04:47,900
uznanym źródłem w edukacji, bo wiemy, że są nauczyciele, są szkoły,

62
00:04:47,900 --> 00:04:53,600
wręcz uniwersytety, które wręcz zabraniają cytowania Wikipedii.

63
00:04:53,600 --> 00:04:57,500
Są z kolei nauczyciele i nauczycielki, którzy są zapalonymi

64
00:04:57,500 --> 00:05:02,300
wikipedystami i wikipedystkami i zachęcają swoich uczniów do tego,

65
00:05:02,300 --> 00:05:07,900
żeby tworzyć. Kamilu, ty pracujesz dużo z nauczycielami.

66
00:05:07,900 --> 00:05:13,200
Jaki oni mają stosunek do Wikipedii? Ja tylko uprzedzę, że jeśli się

67
00:05:13,200 --> 00:05:16,200
dużo poruszam albo w tle będzie coś słychać, to właśnie się obudził

68
00:05:16,200 --> 00:05:18,400
jeden z dwóch moich psów i teraz postanowił

69
00:05:20,900 --> 00:05:24,200
porozmawiać też i pozaczepiać.

70
00:05:25,400 --> 00:05:29,100
Ale póki nie gryzie do nogawki, to przygotowałem się trochę na to

71
00:05:29,100 --> 00:05:31,600
pytanie, bo tak podejrzewałem, że możesz mnie właśnie o to pytać.

72
00:05:31,600 --> 00:05:38,300
I nawet sobie zgooglałem, jakie tytuły artykułów publikujemy w

73
00:05:38,300 --> 00:05:41,400
działce edukacyjnej, od kiedy Wikipedia powstała. Tak jak Tomasz

74
00:05:41,400 --> 00:05:44,200
powiedział na początku, chwilę przed naszą rozmową, że ten szczyt

75
00:05:44,200 --> 00:05:46,100
edytowania to były pierwsze lata Wikipedii,

76
00:05:49,200 --> 00:05:53,300
poprzednich dwie dekady temu, końcówka 2000 lat.

77
00:05:54,000 --> 00:05:56,900
Wtedy sobie zadawaliśmy to samo pytanie, czy można ufać Wikipedii?

78
00:05:56,900 --> 00:06:00,800
No i edukacja tak bardzo, bardzo ostrożnie podchodziła do tego

79
00:06:00,800 --> 00:06:04,900
raczej na zasadzie, no może tak ma to pewną wartość, nauka krytycznego

80
00:06:04,900 --> 00:06:09,100
myślenia, weryfikowania faktów, możemy się czegoś nauczyć od

81
00:06:09,100 --> 00:06:13,000
wikipedystów, wikipedystek, ale lepiej nie ufać, bo to się za szybko

82
00:06:13,000 --> 00:06:16,500
zmienia i dużo bardzo było takiego właśnie niepewności i nieufności.

83
00:06:17,700 --> 00:06:21,200
I jak patrzę sobie po artykułach takich przeciętnych, to mam wrażenie,

84
00:06:21,200 --> 00:06:25,700
że przynajmniej w takim publicznym wydaniu tej debaty za dużo w edukacji

85
00:06:25,700 --> 00:06:27,800
nie dorośliśmy od tamtego momentu.

86
00:06:27,800 --> 00:06:32,800
Znaczy cały czas mamy taką tendencję, że zakładamy nieufność do Wikipedii,

87
00:06:32,800 --> 00:06:36,400
do źródeł internetowych nawet w ogóle, znaczy szerzej niż tylko do Wikipedii.

88
00:06:37,600 --> 00:06:41,200
I trochę mniej czego żałuję, chociaż to się bardzo zmienia, bardzo dużo

89
00:06:41,200 --> 00:06:43,900
projektów i działań w WIDZ-u się zmienia i widać to po nauczycielach i

90
00:06:43,900 --> 00:06:47,000
nauczycielkach, że ich nastawienie też się zmieniło.

91
00:06:48,100 --> 00:06:51,900
Mało jest takiej dyskusji o tym, jak z różnych powodów jest różna jakość

92
00:06:51,900 --> 00:06:53,100
różnych źródeł internetowych.

93
00:06:53,100 --> 00:06:56,600
Mi się wydaje też bardzo ważne teraz, kiedy wchodzą coraz bardziej

94
00:06:56,600 --> 00:06:58,800
powszechnie generowane automatycznie treści.

95
00:06:59,500 --> 00:07:03,000
No i większa cała dyskusja tego, ok, komu w ogóle i dlaczego ufamy w internecie,

96
00:07:03,000 --> 00:07:03,900
z jakich powodów?

97
00:07:05,000 --> 00:07:08,800
Ja też podniosłem rękę wcześniej jako edukator i jako taka osoba, która

98
00:07:08,800 --> 00:07:12,300
nauczycieli i nauczycielki przekonuje do ufania Wikipedii, nie dlatego, żeby

99
00:07:12,300 --> 00:07:17,200
jakiemukolwiek źródłu ufać bezwarunkowo, ale dlatego, że zaufanie do Wikipedii

100
00:07:17,300 --> 00:07:20,600
zawsze musi polegać na tym, że ja muszę zrozumieć, jak ona działa, żeby jej

101
00:07:20,600 --> 00:07:25,300
zaufać. To nie jest takie, kupiłem książkę i zrzucam odpowiedzialność na

102
00:07:25,300 --> 00:07:29,300
wydawcę albo na autora. Znaczy tutaj ten układ jest trochę inny i myślę, że

103
00:07:29,300 --> 00:07:32,300
nauczycielom, nauczycielkom jest wyjątkowo przydatny ten układ, w którym

104
00:07:32,300 --> 00:07:36,000
Wikipedia się zmienia i zaufanie jej wymaga pewnej pracy.

105
00:07:36,000 --> 00:07:41,200
Ja muszę włożyć coś i muszę też włożyć coś do tej relacji razem z uczniami i

106
00:07:41,200 --> 00:07:45,400
uczennicami. Ale odpowiadając krótko na twoje pytanie, poprawiła się na pewno

107
00:07:45,400 --> 00:07:50,000
sytuacja. Po pierwsze nauczyciele i nauczycielki zaakceptowali moim zdaniem,

108
00:07:50,000 --> 00:07:54,200
że zarówno oni, jak i uczniowie i uczennice korzystają z Wikipedii powszechnie.

109
00:07:54,200 --> 00:07:57,900
Czy się do tego przyznajemy czy nie? Statystyka pokazuje, że gdybyśmy mówili,

110
00:07:57,900 --> 00:08:02,600
że nie korzystamy z Wikipedii, to kłamiemy. Tak powszechne jest jej wykorzystanie.

111
00:08:03,700 --> 00:08:08,100
Natomiast myślę, że co innego byłoby, gdybyśmy zaczęli sobie zadawać pytanie

112
00:08:08,100 --> 00:08:11,800
nie tylko, czy można ufać Wikipedii, ale jak Wikipedię mogę wykorzystać w edukacji.

113
00:08:12,100 --> 00:08:17,300
Bo to jest bardziej bolesny problem w sensie korzystania z treści, kopiowania z

114
00:08:17,300 --> 00:08:21,200
Wikipedii, wykorzystywania Wikipedii do tego, żeby zastępować pewne prace, czyli

115
00:08:21,200 --> 00:08:25,000
ta najprostsza ścieżka, której zawsze się nauczyciele boją i tego samego się boją

116
00:08:25,000 --> 00:08:28,500
od sztucznej inteligencji. Znacznie ciekawsze rzeczy zaczęły się pojawiać

117
00:08:28,500 --> 00:08:32,600
od paru lat również dzięki Wikipedii, czyli projekty współtworzenia treści.

118
00:08:33,100 --> 00:08:36,200
I to jest ta rzecz, której w ogóle w Wikipedii jeszcze 10 lat temu było bardzo

119
00:08:36,200 --> 00:08:40,800
mało, czyli współtworzenie treści również w szkole. A to jest bardzo ciekawy dla

120
00:08:40,800 --> 00:08:44,100
mnie kierunek i ciekawa ścieżka, żebyśmy też brali odpowiedzialność jako

121
00:08:44,100 --> 00:08:48,100
współtwórcy, zwłaszcza w szkole, zwłaszcza w akademii, w szkole i w

122
00:08:48,100 --> 00:08:51,600
uczelniach wyższych za współtworzenie Wikipedii. To jest bardzo dobra okazja

123
00:08:51,600 --> 00:08:54,700
do tego, żeby kształtować wikipedystów, wikipedystki i równocześnie kształtować

124
00:08:54,700 --> 00:08:57,600
kompetencje pewne w ten sposób. Rozgadałem się.

125
00:08:58,500 --> 00:09:02,400
Ale do tego wątku, o którym wspomniałaś, czyli sztucznej inteligencji, ja myślę,

126
00:09:02,400 --> 00:09:07,100
że jeszcze wrócimy, bo wiadomo, że jest to gorący wątek, ale trochę zostając

127
00:09:07,900 --> 00:09:12,700
przy młodych ludziach, przy krytycznym myśleniu, ja chciałabym, Małgosiu,

128
00:09:12,700 --> 00:09:18,100
Ciebie zapytać, bo fact-checking, którym zajmuje się Twoje stowarzyszenie,

129
00:09:18,100 --> 00:09:25,100
fundacja, stowarzyszenie? Stowarzyszenie. Stowarzyszenie Demagog ma trochę

130
00:09:25,100 --> 00:09:30,100
wspólnego z tym, co robi Wikipedia, a trochę jesteście gdzie indziej.

131
00:09:30,100 --> 00:09:34,800
Czy mogłabyś najpierw powiedzieć o tych wspólnych elementach, które macie?

132
00:09:35,500 --> 00:09:42,100
Oczywiście. Sam fact-checking opiera się na docieraniu do prawdy

133
00:09:42,100 --> 00:09:48,500
w ofercie o rzetelne źródła informacji, czyli te źródła, które są pierwotne,

134
00:09:48,500 --> 00:09:55,300
najbardziej aktualne. Bardzo często np. ta różnica pomiędzy myśleniami

135
00:09:55,300 --> 00:10:02,700
a Wikipedystami, i tu oczywiście prezes pewnie potwierdzi albo zaprzeczy,

136
00:10:03,300 --> 00:10:09,600
jest taka, że my np. nie uznajemy wszystkich medialnych doniesień jako źródło

137
00:10:09,600 --> 00:10:17,300
informacji. Dla nas dopiero potwierdzenie czegoś w konkretnym raporcie

138
00:10:17,300 --> 00:10:23,300
albo u konkretnego eksperta pozwoli nam wydać werdykt, czy coś jest prawdziwe,

139
00:10:23,300 --> 00:10:28,400
czy nie, więc to jest ta taka podstawowa różnica. Aczkolwiek u nas bardzo często

140
00:10:28,400 --> 00:10:34,200
w redakcji dyskusje, czy coś jest prawdą czy nie, również w oparciu o źródła,

141
00:10:34,200 --> 00:10:40,700
są dokonywane pomiędzy naszymi redaktorami. Zawsze również ta zasada

142
00:10:40,700 --> 00:10:45,800
obowiązuje w dziennikarstwie, że mamy podwójny cross-check, czyli analityka,

143
00:10:45,800 --> 00:10:50,500
który pisze analizę i cross-checkere, który sprawdza, czy na pewno te źródła,

144
00:10:50,500 --> 00:10:56,600
które są przypisane do testów, które sprawdzamy, są rzetelne, wiarygodne,

145
00:10:56,600 --> 00:11:04,500
najbardziej aktualne. Więc to jest ta różnica. Ale oprócz fact-checkingu

146
00:11:04,500 --> 00:11:09,700
zajmujemy się również edukacją, bo Kamil zaczął od edukacji młodych ludzi

147
00:11:09,700 --> 00:11:14,600
i od krytycznego myślenia. I my na co dzień prowadzimy Akademię Fact-Checkingu

148
00:11:15,400 --> 00:11:21,700
i również badamy to, jak sobie radzą młodzi ludzie z wyszukiwaniem informacji

149
00:11:21,700 --> 00:11:27,900
i na jakim poziomie są ich kompetencje cyfrowe i w ogóle rozumienie tego,

150
00:11:27,900 --> 00:11:34,200
w jaki sposób szukać rzetelnych informacji. Bo myślę, że jeśli chodzi

151
00:11:34,200 --> 00:11:42,100
o informacje, to ten szum informacyjny i ich ilość jest ogromna, ale bardzo często

152
00:11:42,800 --> 00:11:48,400
zatrzymujemy się może z różnych powodów w zasadzie, ale zatrzymujemy się

153
00:11:48,400 --> 00:11:52,200
na przykład na tych pierwszych wyszukiwaniach w Google.

154
00:11:52,200 --> 00:11:57,200
Czy wtedy, jeśli wychodzi Wikipedia, to właśnie uznajecie, że jest to

155
00:11:57,200 --> 00:12:02,800
wiarygodne źródło? Bo najczęściej Wikipedia będzie bardzo wysoko,

156
00:12:02,800 --> 00:12:08,400
prawda, w tych źródłach? Dla nas Wikipedia nie jest pierwotnym źródłem informacji,

157
00:12:08,400 --> 00:12:13,000
ona jest już przetworzona, ale my również zachęcamy młodych ludzi

158
00:12:13,000 --> 00:12:19,200
do korzystania z Wikipedii z pewnym zaznaczeniem, że jest to fajne źródło,

159
00:12:19,200 --> 00:12:24,900
żeby poznawać jakiś temat, poznawać, jakie są źródła, które zgłębiają go

160
00:12:24,900 --> 00:12:29,900
właśnie na bazie raportów czy jakichś analiz eksperckich.

161
00:12:30,700 --> 00:12:37,200
I to jest też bardzo ciekawe, żeby wchodzić dalej w temat i nie zatrzymywać

162
00:12:37,200 --> 00:12:40,900
się tylko na Wikipedii. Więc dla nas chyba najważniejsze jest to,

163
00:12:40,900 --> 00:12:46,300
żeby zachęcać młodych ludzi do szukania. Wikipedia jest bardzo fajnym źródłem

164
00:12:46,300 --> 00:12:52,600
na początek, kiedy w ogóle się nie rozumie np. jakiegoś tematu, jego złożoności.

165
00:12:53,300 --> 00:12:58,400
Wikipedia bardzo często kompleksowo opisuje tematy, swoje hasła.

166
00:12:58,400 --> 00:13:06,000
I to jest bardzo wartościowe, że jednak przez to, że Wikipedia, hasła tworzy

167
00:13:06,000 --> 00:13:11,200
bardzo duża społeczność, to tam też te różne poglądy się mocno ścierają.

168
00:13:11,900 --> 00:13:18,200
Więc to jest ważne w tym kontekście, że nie tkwimy tylko np. w jednej bańce,

169
00:13:18,200 --> 00:13:23,200
w jednym światopoglądzie. Więc to jest chyba szczególnie w dzisiejszym świecie

170
00:13:23,200 --> 00:13:24,000
bardzo ważne.

171
00:13:25,700 --> 00:13:31,800
O tym na pewno jeszcze będzie Tomasz mówił, o tym, czym jest właśnie ten słynny

172
00:13:31,800 --> 00:13:37,200
neutralny punkt widzenia, który Wikipedia stara się zachowywać i czy faktycznie

173
00:13:37,200 --> 00:13:42,500
w ogóle to jest możliwe. Ale ja chciałabym teraz zapytać Klaudię, która jest

174
00:13:42,500 --> 00:13:48,500
autorką książki m.in. o fake newsach. Czy kiedy pisałaś o fake newsach,

175
00:13:48,500 --> 00:13:54,700
to Wikipedia w ogóle się pojawiła w twojej książce i czy gdzieś ona sprzyja

176
00:13:54,700 --> 00:13:58,000
bądź nie sprzyja rozpowszechnianiu się np. fake newsów?

177
00:13:58,000 --> 00:14:05,600
Ja zacytowałam w mojej książce Wikipedię, dlatego też podniosłam dziś rękę

178
00:14:05,900 --> 00:14:11,500
pod hasłem trudno powiedzieć, kiedy zapytałaś o zaufanie, bo nie chciałabym

179
00:14:11,500 --> 00:14:17,600
być hipokrytką. Natomiast generalnie rzecz biorąc uważam, że w tym momencie

180
00:14:17,900 --> 00:14:24,700
w ogóle nie powinniśmy, czy nie wydaje mi się zasadne rozmawianie o Wikipedii

181
00:14:24,700 --> 00:14:31,800
jako o źródle wiedzy w tym znaczeniu, że tam powinniśmy szukać, że powinniśmy

182
00:14:31,800 --> 00:14:36,000
traktować ją jako encyklopedię, bo to jest bardzo często to skojarzenie.

183
00:14:36,500 --> 00:14:41,300
Ja też reprezentuję Akademię, więc pewnie będę tą osobą, która jednak często

184
00:14:41,300 --> 00:14:46,300
mówi studentom, proszę znaleźć inne źródło, ale prowadzę zajęcia, na których

185
00:14:46,300 --> 00:14:51,000
zachęcam do tego, aby zrozumieć jak działa Wikipedia i potraktować ją jako

186
00:14:51,000 --> 00:14:57,300
pewnego rodzaju bazę i teraz tutaj jest już do dyskusji bazę faktów, bazę

187
00:14:57,900 --> 00:15:03,900
opinii, bazę interpretacji faktów, bazę informacji w ogóle. Nie wiem jeszcze

188
00:15:03,900 --> 00:15:09,000
jak to dokładnie nazwać. Natomiast jeśli chodzi o dezinformację czy fake newsy,

189
00:15:10,300 --> 00:15:17,100
to przyznam szczerze, że trudno mi teraz mówić o fake newsach na Wikipedii,

190
00:15:17,100 --> 00:15:21,500
chociaż tutaj oddajmy sprawiedliwość demagogowi, który przygotował bardzo

191
00:15:21,500 --> 00:15:27,400
piękny raport mówiący o tym, że można stworzyć postać historyczną nawet na

192
00:15:27,400 --> 00:15:32,300
Wikipedii, która nie istniała albo całkowicie przepisać na nowo historię

193
00:15:32,300 --> 00:15:38,200
Chin, co też miało miejsce jakiś czas temu na Wikipedii, więc pewnie odpowiedź

194
00:15:38,200 --> 00:15:41,800
byłaby twierdząca, tak, na Wikipedii, tak jak we wszystkich innych źródłach

195
00:15:41,800 --> 00:15:46,600
internetowych może pojawiać się mnóstwo dezinformacji, może pojawiać się

196
00:15:46,600 --> 00:15:52,800
wprost kłamstwo, ale to nie czyni jej gorszą, w takim znaczeniu, że tutaj chyba

197
00:15:52,800 --> 00:15:58,200
powrócę do tego, co powiedział Kamil, wiarygodność źródeł internetowych

198
00:15:58,200 --> 00:16:04,500
sama w sobie jest problemem, tak, więc taki nawyk kwestionowania tychże źródeł

199
00:16:04,700 --> 00:16:10,000
jest całkowicie zasadny i potrzebny. Natomiast Wikipedia na tle tych źródeł

200
00:16:10,000 --> 00:16:17,100
wyróżnia się jednak tym, że daje nam potężny zasób źródeł pierwotnych.

201
00:16:17,100 --> 00:16:23,100
I teraz dyskusyjne jest z kolei to, czy te źródła są źródłami o dużej wartości,

202
00:16:23,100 --> 00:16:28,300
na przykład merytorycznej czy naukowej, bo zgodzę się, to znaczy może będę

203
00:16:28,300 --> 00:16:33,400
troszkę bardziej po stronie demagoga w tej waszej takiej konkurencji na to,

204
00:16:33,400 --> 00:16:39,100
jak tworzycie hasła czy tworzycie analizy, bo Wikipedia bardzo często

205
00:16:39,100 --> 00:16:43,200
powołuje się na bieżące teksty dziennikarskie i to jest sporym problemem

206
00:16:43,200 --> 00:16:47,000
według mnie, nie w kontekście dezinformacji, a w kontekście manipulacji,

207
00:16:47,000 --> 00:16:52,000
bo to, że ktoś o czymś pisze, to że jakiś temat jest głośny, sensacyjny,

208
00:16:52,000 --> 00:16:55,800
jest dyskutowany w mediach, nie zawsze jest zasadnym argumentem do tego,

209
00:16:55,800 --> 00:17:01,400
żeby tworzyć o nim hasło, bo paradoksalnie samo wytworzenie tego hasła już może

210
00:17:01,400 --> 00:17:05,600
wpłynąć negatywnie, w znaczeniu przekazać pewnego rodzaju manipulację

211
00:17:05,600 --> 00:17:11,000
czy dezinformację. I tutaj ja upatruję znacznie większego problemu,

212
00:17:11,000 --> 00:17:15,800
ja też pasjami przeglądam hasła, w których przyczepiam się do takich słówek,

213
00:17:15,800 --> 00:17:19,000
bardzo często czy studenci, czy ludzie, którzy nie są naukowcami,

214
00:17:19,000 --> 00:17:24,500
nie widzą różnicy w pewnych określeniach, a są to terminy w perspektywie naukowej

215
00:17:24,500 --> 00:17:30,000
bardzo różne. I tutaj przywołam mojego kolegę, dr. Pawła Jedynaka,

216
00:17:30,000 --> 00:17:38,400
który zawsze dzieli się takim przykładem z biologii, różnicy między zielenieniem

217
00:17:38,400 --> 00:17:45,700
a zazielenianiem się. Żadne z nas nie jest biologiem, ale tylko jeden z tych terminów

218
00:17:45,700 --> 00:17:50,600
jest terminem poprawnym i prawidłowym, drugi właściwie nic nie znaczy.

219
00:17:50,600 --> 00:17:55,000
Natomiast dla kogoś, kto nie będzie ekspertem, a będzie w społeczności wikipedystów,

220
00:17:55,000 --> 00:17:58,800
ta różnica może nie być taka oczywista i tak bardzo widoczna.

221
00:17:58,800 --> 00:18:04,000
I w tym znaczeniu takich błędów, nazwę to błędami, bo nie widzę tutaj

222
00:18:04,000 --> 00:18:08,900
jakiejś bardzo szkodliwej intencji, takich błędów na Wikipedii jest bardzo dużo.

223
00:18:08,900 --> 00:18:14,200
Lub opiniotwórczych sformułowań, które w encyklopediach czy wszelkiego rodzaju

224
00:18:14,200 --> 00:18:18,900
słownikach nie będą miały miejsca, na Wikipedii one też się pojawiają

225
00:18:18,900 --> 00:18:24,400
i mogą kierunkować naszą interpretację faktu. I dlatego zawsze ostrzegam studentów,

226
00:18:24,400 --> 00:18:30,300
żeby nie traktowali tego źródła jako źródła pierwotnego i ostatecznego,

227
00:18:30,300 --> 00:18:35,900
a jedynie jako pewnego rodzaju inspirację do dalszych poszukiwań,

228
00:18:35,900 --> 00:18:40,100
ale też do przejrzenia źródeł. I ja cenię Wikipedię głównie za to,

229
00:18:40,100 --> 00:18:43,800
że mogę skorzystać z jej bibliografii i właściwie nie czytam haseł,

230
00:18:43,800 --> 00:18:48,800
tylko od razu przechodzę do bibliografii i sprawdzam źródła pierwotne.

231
00:18:48,800 --> 00:18:54,900
Okej, to jest jeden ze sposobów na pewno korzystania z Wikipedii.

232
00:18:54,900 --> 00:19:00,000
Tomaszu, do Ciebie przychodzimy. Podniosłeś rękę, że można ufać Wikipedii,

233
00:19:00,000 --> 00:19:04,800
więc jakie argumenty masz na potwierdzenie swojej tezy?

234
00:19:04,800 --> 00:19:10,100
Dlaczego chciałbyś nas przekonać, że jednak można ufać Wikipedii?

235
00:19:10,100 --> 00:19:13,100
Ja odpowiedziałam trochę tak przekonnie ze swojej perspektywy,

236
00:19:13,100 --> 00:19:18,900
bo ja jestem wikipedystą od 20 lat i znam tę Wikipedię jak własną kieszeń,

237
00:19:18,900 --> 00:19:23,700
dlatego ja mogę ufać, bo ja bardzo łatwo mogę odróżnić dobre artykuły od słabych.

238
00:19:23,700 --> 00:19:27,300
I mam właśnie taką wiedzę, ale cieszę się, że już nie tylko ja,

239
00:19:27,300 --> 00:19:30,000
bo jak opowiadaliście, opowiadałyście wcześniej,

240
00:19:30,000 --> 00:19:33,100
to widzę, że sobie też doskonale radzicie z Wikipedią

241
00:19:33,100 --> 00:19:36,100
i to mnie właśnie bardzo cieszy, że mamy świadomych odbiorców

242
00:19:36,100 --> 00:19:40,300
treści takich jak Wikipedia, bo to jest właśnie narzędzie,

243
00:19:40,300 --> 00:19:43,900
które trzeba traktować z głową. Nikt nigdy nie mówi,

244
00:19:43,900 --> 00:19:46,900
zresztą my to wprost jako wikipedyści mówimy,

245
00:19:46,900 --> 00:19:49,900
jakbyście sobie zerknęli na jakikolwiek artykuł na Wikipedii,

246
00:19:49,900 --> 00:19:53,000
to jest na samym dole napisane, korzystasz z Wikipedii

247
00:19:53,000 --> 00:19:56,000
tylko na własną odpowiedzialność i wprost tłumaczymy,

248
00:19:56,000 --> 00:19:59,900
o co chodzi z tą Wikipedią. To jest projekt tworzony przez ludzi,

249
00:19:59,900 --> 00:20:02,700
którzy mają bardzo różne kompetencje,

250
00:20:02,700 --> 00:20:07,300
ludzi, którzy są w stanie poświęcić swój czas i swoje chęci,

251
00:20:07,300 --> 00:20:11,200
żeby zrobić to jak najlepiej, ale jak nawet słusznie zauważyła

252
00:20:11,200 --> 00:20:15,600
Klaudia, wielu tych ludzi nie odróżnia zielenienia od zazielenienia

253
00:20:15,600 --> 00:20:19,800
i już na tej podstawie widzimy, że można się czasami naciąć

254
00:20:19,800 --> 00:20:24,300
na jakimś artykule, więc my ostrzegamy, że rzeczywiście

255
00:20:24,300 --> 00:20:28,500
mogą się błędy takie znaleźć. Świadomie ostrzegamy,

256
00:20:28,500 --> 00:20:31,500
nie wierzcie we wszystko, co czytacie. Jedynie,

257
00:20:31,500 --> 00:20:35,400
może mogę zaraz taką działkę zareklamować, która jest

258
00:20:35,400 --> 00:20:38,600
bardziej wynikliwie sprawdzana, to są artykuły medyczne.

259
00:20:38,600 --> 00:20:42,400
Tam jednak to jest kwestia życia, zdrowia, tam jest ten dobór

260
00:20:42,400 --> 00:20:45,900
źródeł maksymalnie sprawdzany, żeby jednak uniknąć takich

261
00:20:45,900 --> 00:20:49,500
wątpliwych informacji, bo umówmy się, jeżeli przy jakimś sportowcu

262
00:20:49,500 --> 00:20:52,500
ktoś się pomyli i mu przyzna medal nie w tej dyscyplinie,

263
00:20:52,500 --> 00:20:56,100
którą zdobył lub też nie na tej olimpiadzie, no to ryzyko,

264
00:20:56,100 --> 00:20:59,600
że tak powiem społeczne tego byłoby niewielkie, tej pomyłki.

265
00:20:59,600 --> 00:21:02,900
W przypadku artykułów medycznych, gdy ktoś przedstawi coś

266
00:21:02,900 --> 00:21:05,700
błędnie, może mieć to szkodliwe skutki dla zdrowia i życia.

267
00:21:05,700 --> 00:21:09,100
Dlatego już jakby trochę odpowiedź, że ten temat jest bardziej

268
00:21:09,100 --> 00:21:12,100
wynikliwie pilnowany niż inny, jeśli chodzi o źródła.

269
00:21:12,100 --> 00:21:16,800
Jak wszyscy podkreślaliście, my dbamy o to, aby źródła były

270
00:21:16,800 --> 00:21:20,600
w artykułach i naszą zasadą jest weryfikowalność, czyli my nie

271
00:21:20,600 --> 00:21:24,800
możemy nic pisać z głowy, jako wikipedyści, musimy się opierać

272
00:21:24,800 --> 00:21:28,600
na źródłach. Jeżeli na przykład któryś z was by powiedział,

273
00:21:28,600 --> 00:21:32,100
a ja wiem, że tam jest błąd, bo na przykład mój dziadek był

274
00:21:32,100 --> 00:21:34,800
świadkiem tego wydarzenia i co prawda żadna książka tego nie

275
00:21:34,800 --> 00:21:38,500
opisała, ale ja wiem z własnych tam ust, że jego świadka wydarzenia,

276
00:21:38,500 --> 00:21:42,400
że to trzeba zmienić, bo data podana w artykułu jest błędna albo

277
00:21:42,400 --> 00:21:46,100
coś innego, to nam nie wolno tej informacji pozyskanej w ten

278
00:21:46,100 --> 00:21:50,100
sposób umieścić. Musimy poczekać, aż ona będzie wydana w jakimś,

279
00:21:50,100 --> 00:21:53,300
czy to czasopiśmie naukowym, czy gdzieś indziej w jakimś

280
00:21:53,300 --> 00:21:56,900
wiarygodnym źródle użyta, dopiero wtedy możemy ten nasz artykuł

281
00:21:56,900 --> 00:22:01,400
zmienić. Czyli rzeczywiście dążymy do tego, aby nasze artykuły

282
00:22:01,400 --> 00:22:05,200
były oparte na jakichś wiarygodnych, rzetelnych źródłach. Czy w

283
00:22:05,200 --> 00:22:08,000
rzeczywistości zawsze tak jest? No nie jest, świat nie jest

284
00:22:08,000 --> 00:22:12,400
taki zrobiony, że już gotowe mamy wszystkie artykuły.

285
00:22:12,800 --> 00:22:16,100
Wikipedia jest taką cyklopedią, która jest jednocześnie produktem

286
00:22:16,100 --> 00:22:20,700
i procesem. Jesteśmy w trakcie tworzenia. To też niektóre artykuły,

287
00:22:20,700 --> 00:22:23,500
jak widzicie, mają już praktycznie skończoną postać, bardzo

288
00:22:23,500 --> 00:22:27,400
kompletne, bardzo ciekawe, bardzo dobrze opracowane. Te wyróżniam

289
00:22:27,400 --> 00:22:30,800
jako wikipedyści. Jako czytelnik, jak widzicie, dobry artykuł,

290
00:22:30,800 --> 00:22:34,800
artykuł na medal, no to widzicie, że wikipedyści są z tych artykułów

291
00:22:34,800 --> 00:22:38,100
szczególnie zadowoleni i je polecają. Jeśli natomiast widzicie

292
00:22:38,100 --> 00:22:42,300
u góry szablon dopracować, brak źródeł, kłopoty z takim czy z innym

293
00:22:42,300 --> 00:22:47,000
aspektem, niestaranne tłumaczenie lub jakiś właśnie kłopot z

294
00:22:47,000 --> 00:22:50,500
neutralnością, to jako czytelnik jesteście lojalnie uszczerzeni,

295
00:22:50,500 --> 00:22:55,000
że z tym artykułem jest coś nie tak? Uważajcie. I patrzcie też na

296
00:22:55,000 --> 00:22:58,900
źródła. To, co mówicie, to też mi się bardzo podoba. Jakość artykułu

297
00:22:58,900 --> 00:23:01,800
zależy też od źródeł w nich użytych. Jeżeli widzimy dobre, solidne

298
00:23:01,800 --> 00:23:06,400
nazwiska naukowe, wydawnictwa i faktycznie to jako przepisy są

299
00:23:06,400 --> 00:23:10,700
użyte w tym artykule, to nasze zaufanie do niego rośnie. Jak widzicie

300
00:23:10,700 --> 00:23:15,100
jakieś słabej jakości artykuły, powiedzmy z internetu jedynie,

301
00:23:15,500 --> 00:23:18,100
to co niestety przy tych najnowszych wydarzeniach to jest prawda,

302
00:23:18,100 --> 00:23:20,700
no tylko takie się pojawiają, póki jeszcze nie ma lepszego

303
00:23:20,700 --> 00:23:25,100
opracowania jakiegoś naukowego, no to takie artykuły, tak powiemy,

304
00:23:25,100 --> 00:23:29,300
są z dystansem. Więc ta odpowiedź jest taka, jest prawda.

305
00:23:29,300 --> 00:23:32,000
Na pewno będziemy do tej wracać. Zanim jeszcze, bo Klaudia

306
00:23:32,000 --> 00:23:36,200
chciała coś dodać, ale ja chciałam zacytować fragment książki,

307
00:23:36,200 --> 00:23:39,400
która też trochę nas dzisiaj tu zgromadziła,

308
00:23:40,400 --> 00:23:44,400
książka Amie Brookman, Czy można ufać Wikipedii, została właśnie

309
00:23:44,400 --> 00:23:48,000
wydana, przetłumaczona na język polski. I tam jest takie zdanie,

310
00:23:48,200 --> 00:23:52,600
kiedy zmiana wsparta jest mocnymi dowodami, setki ochotników

311
00:23:52,600 --> 00:23:58,900
poradzą sobie lepiej niż kilku ekspertów. I to jest jeden z tych

312
00:23:59,200 --> 00:24:03,100
argumentów, który ma pokazać, że nie zawsze tylko ta wiedza

313
00:24:03,100 --> 00:24:09,200
ekspercka może być tą najlepszą, ale że jednak te właśnie setki

314
00:24:09,200 --> 00:24:15,600
tysięcy czy tysiące ludzi, którzy angażują swój czas, mając dobre

315
00:24:15,800 --> 00:24:21,200
wsparcie dowodowe, może jednak tworzyć wartościową

316
00:24:21,200 --> 00:24:25,100
i wiarygodną treść. Czy ty się zgadzasz z tym zdaniem, Tomku?

317
00:24:25,900 --> 00:24:29,000
Właśnie ten temat, który bardzo ciekawy był w książce, na przykład

318
00:24:29,000 --> 00:24:32,900
podano, że jakieś oznaczenie ptaków było tam przedstawione,

319
00:24:32,900 --> 00:24:37,200
że jeżeli robi to niezależnie od siebie kilkunastu ekspertów,

320
00:24:37,200 --> 00:24:41,000
amatorów, takich, którzy tylko zdobyli to doświadczenie bez

321
00:24:41,000 --> 00:24:44,200
jakiegoś naukowego wykształcenia, ale właśnie podobnie, tak

322
00:24:44,200 --> 00:24:48,300
jak wikipedyści często taką drogą takiej edukacji poprzez to,

323
00:24:48,300 --> 00:24:52,300
że korzystają z jakiegoś tam, powiedzmy, wytycznych i tylko

324
00:24:52,300 --> 00:24:56,200
się szkolą w ten sposób, że oni mają większą tam 99-procentową

325
00:24:56,200 --> 00:24:59,600
nawet skuteczność niż jeden czy dwóch ekspertów, którzy

326
00:24:59,700 --> 00:25:02,200
no, przeznaczasz większej liczbie obserwacji mają prawo

327
00:25:02,200 --> 00:25:04,500
częściej się pomylić, mają troszkę niższą tam skuteczność,

328
00:25:04,500 --> 00:25:08,200
tam 97% bodajże. I czy tak samo jest z wikipedystami?

329
00:25:08,400 --> 00:25:11,800
Jeżeli jest jakieś wydarzenie, rzeczywiście często tutaj,

330
00:25:12,300 --> 00:25:15,100
powiedzmy, ktoś dostał nagrodę Nobla, tak? Zobaczcie, co się

331
00:25:15,100 --> 00:25:18,300
teraz dzieje z biogramem tej osoby. Wcześniej często jakiś tam

332
00:25:18,300 --> 00:25:22,100
mało edytowany biogram w ciągu kilku godzin, na to rozrasta

333
00:25:22,100 --> 00:25:25,300
się, nawet w świetnej postaci. Jakby się tam gdzieś pojawił

334
00:25:25,300 --> 00:25:28,600
błąd, to rzeczywiście grono osób, które to robi, natychmiast

335
00:25:28,600 --> 00:25:31,900
go poprawi i ten biogram w ciągu kilku godzin, kilku dni

336
00:25:31,900 --> 00:25:34,800
maksymalnie, stanie się fajnym, dobrym źródłem informacji.

337
00:25:35,000 --> 00:25:38,200
Na pewno jednym z najlepszych w internecie. Natomiast czy to

338
00:25:38,200 --> 00:25:41,700
jest prawda zawsze i wszędzie? No, umówmy się, nie mamy setek

339
00:25:41,700 --> 00:25:45,000
wolontariuszy do każdego tematu, która by umiała każdy temat

340
00:25:45,000 --> 00:25:47,400
tak dopracować. Jeżeli mamy na przykład, nie wiem, jakiś temat

341
00:25:47,400 --> 00:25:50,800
szczególnie trudny, jakaś fizyka jądrowa, powiedzmy. No, może

342
00:25:50,800 --> 00:25:53,200
być tak, że mamy na przykład dwóch czy trzech wolontariuszy

343
00:25:53,400 --> 00:25:57,300
i jeżeli oni się pomylą, to mała szansa, że ja jako humanista,

344
00:25:57,300 --> 00:26:00,700
czy ktoś, prawda, z wykształceniem muzycznym czy innym,

345
00:26:00,700 --> 00:26:04,300
będzie umiał znaleźć ten błąd. Więc to nie jest tak, że mamy

346
00:26:04,300 --> 00:26:07,700
niestety setki ekspertów i to jest ten błąd, że no tutaj są

347
00:26:07,700 --> 00:26:11,300
wolontariusze. Ludzie z środowiska akademickiego, no nie

348
00:26:11,300 --> 00:26:14,700
zawsze mają ochotę i czas, aby poprawiać te artykuły, choć

349
00:26:14,700 --> 00:26:18,900
ta współpraca też pojawia się coraz w większym zakresie, ale

350
00:26:18,900 --> 00:26:22,800
niestety to jest taki trochę minus tego, że niektórzy wolą tą

351
00:26:22,800 --> 00:26:26,100
Wikipedię krytykować i się z niej wyśmiewać, niż nich pomóc

352
00:26:26,100 --> 00:26:30,500
powiedzieć, jak to zrobić, czy samemu. Choć krzyk klikni

353
00:26:30,500 --> 00:26:33,700
edyty i może każdy z nas nacisnąć, nie? To nie jest zastrzeżone

354
00:26:33,700 --> 00:26:37,000
tylko dla tych nielicznych Wikipedyzmów. Tak, zachęcamy po

355
00:26:37,000 --> 00:26:39,900
naszym webinarze, żeby każdy spróbował na przykład

356
00:26:39,900 --> 00:26:43,800
wyedytować jakieś hasło i zobaczyć, co się stanie, prawda?

357
00:26:43,800 --> 00:26:45,500
Klaudio, chciałaś coś dodać.

358
00:26:46,500 --> 00:26:50,600
Tak, tak, to znaczy zanim przejdę do tego cytatu, to

359
00:26:50,600 --> 00:26:54,000
chciałam dodać coś do tego, co mówił Tomasz w kontekście

360
00:26:54,000 --> 00:26:58,400
informowania użytkowników Wikipedii o tym, że nie jest to

361
00:26:58,400 --> 00:27:02,700
do końca wiarygodne czy pełne źródło informacji. Otóż jest

362
00:27:02,700 --> 00:27:05,900
to do rozważenia dla Ciebie, Tomku i w ogóle dla Wikimediów,

363
00:27:05,900 --> 00:27:10,500
czy warto to robić na dole. Według mnie i z moich doświadczeń,

364
00:27:10,500 --> 00:27:14,300
ale też z tego, jak analizujemy korzystanie w ogóle z mediów

365
00:27:14,300 --> 00:27:18,700
i jakość uwagi użytkowników mediów, wynika, że rzadko

366
00:27:18,700 --> 00:27:22,600
kto dociera do końca tekstu, a już na pewno nie dociera

367
00:27:22,600 --> 00:27:26,100
do niego w pełni skupiony, tak aby jeszcze na nowo krytycznie

368
00:27:26,100 --> 00:27:30,300
ten tekst przeanalizować. No i w tym znaczeniu raczej nie

369
00:27:30,300 --> 00:27:33,200
jest to skuteczna metoda. Oczywiście z punktu widzenia

370
00:27:33,200 --> 00:27:37,400
Wikipedii jest to pewien argument w stylu mamy jasność,

371
00:27:37,400 --> 00:27:42,100
mówimy użytkownikom, ale na ile to do nich dociera, mam duże

372
00:27:42,100 --> 00:27:45,200
wątpliwości. Wydaje mi się, gdyby na początku było oznaczenie

373
00:27:45,500 --> 00:27:48,400
to hasło nie jest jeszcze skończone albo to hasło nie jest

374
00:27:48,400 --> 00:27:54,100
w pełni sprawdzone czy wiarygodne, być może wtedy ta wiedza

375
00:27:54,400 --> 00:27:57,900
przekazywana w nim byłaby nieco, mówię o błędnej wiedzy,

376
00:27:57,900 --> 00:28:02,000
jeżeli się taka pojawia, byłaby nieco bardziej zneutralizowana.

377
00:28:02,000 --> 00:28:08,000
A wracając do cytatu, który wskazałaś, no ja jestem

378
00:28:08,000 --> 00:28:11,700
przeciwniczką demokratyzacji wiedzy w takim znaczeniu,

379
00:28:11,700 --> 00:28:17,000
że im więcej osób tak myśli, to jest już z automatu uznawane

380
00:28:17,000 --> 00:28:21,000
za prawdziwe. Kiedyś Kopernik był jedną osobą na świecie,

381
00:28:21,000 --> 00:28:25,300
która uważała inaczej niż wszyscy inni i to on miał rację,

382
00:28:25,300 --> 00:28:33,000
więc trudno jest mi... Pytanie, czy to nie jest kwestia

383
00:28:33,000 --> 00:28:37,500
tylko wiedzy, tylko właśnie sprawdzania tej wiedzy w oparciu

384
00:28:37,500 --> 00:28:43,200
o źródła, że jednak grupa ludzi może to zrobić skuteczniej

385
00:28:43,700 --> 00:28:48,700
niż tylko i wyłącznie dwie osoby na przykład z tytułem naukowym.

386
00:28:48,700 --> 00:28:54,200
Zależy od ludzi. Oczywiście to, co jest dyskusyjne,

387
00:28:54,200 --> 00:28:56,200
czy faktycznie tak może być.

388
00:28:56,200 --> 00:29:01,200
No i uważam, że to wcale nie zależy od liczby, tylko od jakości

389
00:29:01,200 --> 00:29:04,500
tych ludzi, bo może być dwóch ludzi bardzo sprawnych,

390
00:29:04,500 --> 00:29:07,400
intelektualnie naukowców, którzy dobrze będą wiedzieli

391
00:29:07,400 --> 00:29:10,900
przede wszystkim, gdzie szukać, a może być kilka ludzi,

392
00:29:10,900 --> 00:29:13,500
którzy będą szukać w wielu różnych źródłach, ale akurat

393
00:29:13,500 --> 00:29:16,300
nie tych najbardziej wiarygodnych czy najbardziej precyzyjnych.

394
00:29:16,500 --> 00:29:19,700
Aczkolwiek oczywiście statystyka jest nieubłagana.

395
00:29:19,900 --> 00:29:22,900
Im więcej ludzi sprawdza, tym większa szansa, że sprawdzi

396
00:29:22,900 --> 00:29:25,700
to z wielu różnych aspektów.

397
00:29:26,100 --> 00:29:32,900
Pytanie tylko też o jakość tej pracy, ale też dam taki przykład,

398
00:29:32,900 --> 00:29:38,200
bo myślę, że to najlepiej poruszać takie przykładowe historie.

399
00:29:38,700 --> 00:29:43,800
Ja jakiś czas temu bardzo śledziłam anglojęzyczną Wikipedię

400
00:29:44,100 --> 00:29:48,100
w związku ze sprawą córki Brada Pitta i Angeliny Jolie,

401
00:29:48,100 --> 00:29:53,400
czyli Shiloh Jolie-Pitt. Bardzo długo ta dziewczynka na Wikipedii

402
00:29:53,400 --> 00:29:56,800
funkcjonowała pod zmienionym imieniem, bo wszystkie media,

403
00:29:56,800 --> 00:30:00,000
może nie wszystkie, ale większość mediów w Stanach Zjednoczonych

404
00:30:00,000 --> 00:30:02,260
tak ją nazywało, po czym

405
00:30:02,260 --> 00:30:07,720
okazało się, że jakoś tam ona chyba, nie wiem, czy zmieniła zdanie,

406
00:30:07,720 --> 00:30:13,200
już aż tak w to nie wnikam, ale chodzi o to, że nie było oficjalnego komunikatu ze strony rodziny

407
00:30:13,480 --> 00:30:18,440
mówiącego o tym, żeby tak tę dziewczynkę w Wikipedii nazywać, ten tekst zniknął.

408
00:30:18,880 --> 00:30:24,040
I to jest też taki problem, który ja identyfikuję, czyli przez jakiś czas jakieś hasło funkcjonuje,

409
00:30:24,040 --> 00:30:30,960
jest poparte źródłami medialnymi, a potem znika z dnia na dzień i nie ma sprostowania,

410
00:30:30,960 --> 00:30:37,520
albo nie ma informacji, pomyliliśmy się, albo to było błędne hasło, to była dezinformacja.

411
00:30:37,520 --> 00:30:43,000
Jest po prostu brak hasła, ale ludzie, którzy je wcześniej przeczytali, zostają z przekonaniem,

412
00:30:43,000 --> 00:30:48,360
który sobie na podstawie tego hasła wyrobili. I pytanie, co zrobić z tą odpowiedzialnością.

413
00:30:48,360 --> 00:30:54,800
Myślę, że to jest bardzo ciekawy aspekt. Kamil, ty coś chciałeś dodać, a później chciałam

414
00:30:54,800 --> 00:31:04,200
chciałam cię jeszcze dopytać właśnie o tę AI i wiarygodność AI, czata GPT vs Wikipedii.

415
00:31:05,280 --> 00:31:10,560
Przepraszam, ja tylko wejdę tutaj z krótkimi komentarzami z Facebooka,

416
00:31:10,560 --> 00:31:13,080
które pojawiają się w trakcie waszej rozmowy.

417
00:31:13,080 --> 00:31:18,720
I one są takie, jeśli będziecie mieli przestrzeń na odniesienie się do tego,

418
00:31:18,720 --> 00:31:26,480
to byłoby świetnie. Maria Weronika Czmoch, to członkini zarządu WMPL pisze,

419
00:31:26,480 --> 00:31:31,720
zrobiłabym rozróżnienie źródła pierwotne i opracowanie. Wikipedia jest opracowaniem.

420
00:31:32,640 --> 00:31:38,520
Drugie też, też od Marysi, jest komentarz, zróbmy też rozróżnienie na polskojęzyczną

421
00:31:38,520 --> 00:31:43,760
Wikipedię i innojęzyczne Wikipedię, bo fejkowe postacie i historia Chin to nie na polskiej

422
00:31:43,760 --> 00:31:51,400
Wikipedii. Ewa, Amy Brukman w książce pisze, że taka internetowa społeczność jak wikipedyści

423
00:31:51,400 --> 00:31:54,040
trochę zastępuje spotkania w barze czy klubie.

424
00:31:54,600 --> 00:32:00,000
Dla wikipedystów nie jest ważniejsze edytowanie jako aktywność społeczna, a nie trzymanie rzetelności.

425
00:32:02,360 --> 00:32:06,800
Okej, to może na razie nam wystarczy, jak się odniesiemy do niektórych rzeczy.

426
00:32:06,800 --> 00:32:08,960
Wracam Kamilu do ciebie.

427
00:32:08,960 --> 00:32:14,880
Najpierw do tego, co chciałeś dodać, a później do czata i AI.

428
00:32:19,320 --> 00:32:24,880
Zapomniałem oczywiście włączyć mikrofon, ale komentarz i odniesienie się do tego, co mówił Tomasz i

429
00:32:24,880 --> 00:32:29,200
Klaudia, bo to w ogóle super ciekawy wątek pomiędzy wami się pojawił.

430
00:32:30,120 --> 00:32:35,320
I częściowo się zgadzam, a częściowo być może powiem coś bardzo kontrowersyjnego, więc niech

431
00:32:35,320 --> 00:32:39,240
będzie. Od tego też takie spotkania być może są.

432
00:32:40,040 --> 00:32:46,720
A propos tego chociażby przesunięcia informacji o tym, że jest to cały czas w edycji

433
00:32:47,080 --> 00:32:49,680
utwór, na który trzeba uważać z dołu na górę.

434
00:32:51,120 --> 00:32:51,600
Teraz jeszcze...

435
00:32:54,280 --> 00:32:55,440
Mam nadzieję, że go nie sprzycie.

436
00:32:56,440 --> 00:33:02,800
W każdym razie myślę, że bardzo wielu osób Wikipedia przejęła to, czym jest dziennikarstwo.

437
00:33:02,800 --> 00:33:07,000
I nawet jeżeli inaczej to traktujemy, to jest to źródło, które wiele osób traktuje jak źródło

438
00:33:07,000 --> 00:33:10,000
medialne. I dlaczego to jest dla mnie bardzo ciekawe?

439
00:33:10,000 --> 00:33:16,320
Dlatego, że im bardziej źródła medialne, internetowe zwłaszcza, przestajemy im ufać z wielu

440
00:33:16,320 --> 00:33:21,440
powodów, na przykład bo nie trzymają się tak samo skuteczności pewnych zasad dziennikarskich co 50-100

441
00:33:21,440 --> 00:33:25,360
lat temu, albo przynajmniej tak nam się wydaje, że kiedyś się trzymały lepiej tych zasad, dzisiaj się

442
00:33:25,360 --> 00:33:31,280
trzymają gorzej, to Wikipedia przynajmniej jest takim źródłem, które nawet jeżeli jest tam błąd albo

443
00:33:31,280 --> 00:33:36,240
zniknie jakiś artykuł, to coraz bardziej myślimy o tym i mówię o takich przeciętnych osobach, które

444
00:33:36,240 --> 00:33:38,320
z Wikipedii raczej czytają niż edytują.

445
00:33:38,680 --> 00:33:43,080
Mam poczucie, że to jest zasób, który podąża za jakimiś zasadami.

446
00:33:43,200 --> 00:33:44,840
Znaczy ma bardzo konkretne zasady.

447
00:33:44,840 --> 00:33:49,000
Są to zasady społeczności, są to zasady tego w jaki sposób nie zawsze mogą być idealnie

448
00:33:49,000 --> 00:33:52,320
działające. Ten przykład z artykułem znikającym jest dla mnie bardzo też ciekawy z takiej

449
00:33:52,320 --> 00:33:58,000
perspektywy faktycznie sprostowania Wikipedii, która no niestety nikt nie doczyta tego w dyskusji

450
00:33:58,000 --> 00:33:59,480
na przykład. Co się z tym stało artykuła?

451
00:33:59,480 --> 00:34:02,720
To jest też bardzo ukryte dla większości osób, które mogą to czytać.

452
00:34:03,240 --> 00:34:07,760
Natomiast myślę, że to, że w ogóle Wikipedia ma zestaw zasad, za którymi podąża i

453
00:34:07,760 --> 00:34:13,120
wikipedyści starają się normalizować to, co się dzieje w Wikipedii, żeby poprawić jakość,

454
00:34:13,120 --> 00:34:19,120
nawet jeżeli się pojawi właśnie błąd czy wandalizm, to to jest coś takiego, co powoduje, że

455
00:34:19,200 --> 00:34:22,960
ludzie mogą ufać Wikipedii odrobinę bardziej niż innym za sobą.

456
00:34:23,040 --> 00:34:27,240
I to jest dla mnie też argument dlaczego mogą ufać i powinni, właśnie dlatego, że te zasady są.

457
00:34:27,240 --> 00:34:31,760
Nie ufamy dlatego, że ktoś ma być nieomylny, możemy komuś ufać bardziej dlatego, że mimo

458
00:34:31,760 --> 00:34:33,080
wszystko ma jakieś zasady.

459
00:34:33,560 --> 00:34:37,360
Po naszej stronie jest ta odpowiedzialność, o której mówicie, żeby faktycznie ocenić czy ja biorę

460
00:34:37,360 --> 00:34:43,280
to czy nie. Natomiast to, że w ogóle jest źródło, które podąża za mnóstwem zasad i te zasady

461
00:34:43,280 --> 00:34:48,120
są np. dla mnie to jest bardzo ważne, nawet jeżeli w Wikipedii zdarzają się błędy, to dla mnie

462
00:34:48,120 --> 00:34:53,360
bardzo ważna jest możliwość różnorodności w Wikipedii, która jakby unika jednostronnego,

463
00:34:53,360 --> 00:34:57,720
bardzo silnego wpływu, który niestety jest bardzo częsty w mediach, które nawet jeżeli starają się

464
00:34:57,720 --> 00:35:02,560
być obiektywne, bardzo często ulegają konkretnym wpływom linii politycznych czy sponsorów.

465
00:35:03,400 --> 00:35:07,600
Osobna pewnie dyskusja, Wikipedia, zaufanie do Wikipedii versus do mediów.

466
00:35:08,080 --> 00:35:15,440
Natomiast myślę, że ten zestaw zasad to jest coś takiego, co jest tym, co powoduje, że możemy

467
00:35:15,440 --> 00:35:20,520
ufać bardziej. I to jest super ciekawe właśnie te kwestie UX-owe, takiego designu, które mogą

468
00:35:20,520 --> 00:35:23,800
komuś ułatwić zrozumienie z czym ma do czynienia, kiedy czyta Wikipedię.

469
00:35:23,800 --> 00:35:24,960
Super, bardzo fajne.

470
00:35:26,160 --> 00:35:32,080
Jedno zdanie o tym, czy bardziej Wikipedia jest wiarygodna, czy czat GPT dzisiaj?

471
00:35:33,320 --> 00:35:36,720
Pod tym względem przeszukałem książkę i przeczytałem te fragmenty książki, przynajmniej które

472
00:35:36,720 --> 00:35:40,320
tego dotyczyły, bo to mnie interesowało zupełnie szczerze najbardziej.

473
00:35:41,240 --> 00:35:46,360
Bo jest część dyskusji tego, że jakby jak Wikipedia jako autorzy i autorki Wikipedii mogą podejść do

474
00:35:46,360 --> 00:35:50,080
sztucznej inteligencji. I tutaj jak rozumiem jest już dyskusja o tym, jak traktować czat GPT i

475
00:35:50,080 --> 00:35:55,240
podobne narzędzia. Ale mnie bardziej interesuje coś, co wyłapałem dwa tygodnie temu w jednej z

476
00:35:55,240 --> 00:35:59,600
większych firm, która uczy modele językowe, czyli

477
00:36:00,160 --> 00:36:06,200
Large Language Models, która zapowiedziała, że szykuje model, który będzie mocno

478
00:36:06,200 --> 00:36:11,600
wytrenowany we Wikipedii, bo ich celem jest przygotowanie takiego czata, takiej wersji czata,

479
00:36:12,360 --> 00:36:18,200
która właśnie dla użytkownika, użytkowniczki będzie miała ten wyższy poziom zaufania.

480
00:36:18,200 --> 00:36:22,160
I to jakby wzbudziło mnie i zainteresowanie, i czerwone, i żółte, i zielone lampki.

481
00:36:22,320 --> 00:36:27,000
Bardzo ciekawy pomysł tego, że Wikipedia przyszła im jako taki pierwszy zestaw

482
00:36:27,000 --> 00:36:31,520
faktograficzny weryfikowania tego, co robi sztuczna inteligencja.

483
00:36:32,440 --> 00:36:36,960
Pokusa być może bardzo ciekawa, słuszna, że faktycznie Wikipedia będzie miała sporo danych, które

484
00:36:36,960 --> 00:36:42,200
mógłby ten czat zweryfikować, ten model weryfikować, ale równocześnie nadal będzie powielał

485
00:36:42,200 --> 00:36:44,440
wszystkie problemy, o których powiedzieliśmy od dzisiaj, od początku.

486
00:36:44,440 --> 00:36:48,760
Przynajmniej na przykład ta żywiołość Wikipedii, żywa edycja jej. Ale myślę, że to jest w ogóle

487
00:36:48,760 --> 00:36:53,400
ciekawe, że Wikipedia ma już tak wysoki status, że jak patrzymy sobie z czym weryfikować czat

488
00:36:53,400 --> 00:36:59,120
w GPT, to Wikipedia jest wysoko na tej liście tych rzeczy, z których mogliśmy go weryfikować.

489
00:36:59,760 --> 00:37:05,280
Ok, dzięki. Zaraz wrócę do Tomka i Klaudii, ale jeszcze Małgosiu do ciebie chciałam na chwilę

490
00:37:05,520 --> 00:37:12,200
wrócić, bo bardzo mi się spodobało, jak wy na swojej stronie piszecie właśnie

491
00:37:12,200 --> 00:37:19,960
o fact-checkingu i podajecie też takie kategorie, czyli fałsz, przeróbka,

492
00:37:19,960 --> 00:37:23,040
częściowy fałsz, brak kontekstu, satyra, prawda.

493
00:37:24,240 --> 00:37:31,560
I tak się zastanawiam nad tym podziałem, czy on na przykład nie mógłby też w jakiś sposób

494
00:37:31,560 --> 00:37:37,280
zostać wykorzystany w Wikipedii, bo wydaje mi się, że on jest bardzo taki całościowy, że to nie jest

495
00:37:37,280 --> 00:37:42,720
taki zero-jedynkowy, prawda, albo fałsz, bo czasem nie da się tego właśnie tak powiedzieć,

496
00:37:42,960 --> 00:37:48,400
ale kwestia właśnie chociażby tego kontekstu, czy tego, że może to być jakiś częściowy fałsz

497
00:37:49,040 --> 00:37:54,520
jest bardzo ważny. Czy wy to sami wymyśliliście ten schemat, czy skorzystaliście z jakiegoś już

498
00:37:54,520 --> 00:37:55,400
istniejącego?

499
00:37:56,960 --> 00:38:03,480
My bazujemy na metodologiach międzynarodowych organizacji fact-checkingowych,

500
00:38:03,480 --> 00:38:11,480
więc akurat z tej kategorii korzystamy oznaczając fałszywe treści np. na Facebooku,

501
00:38:12,160 --> 00:38:17,560
czyli kiedy pojawiają się jakieś fałszywe artykuły, wpisy, ale też zdjęcia, my właśnie

502
00:38:17,560 --> 00:38:21,040
wykorzystujemy te kategorie.

503
00:38:21,400 --> 00:38:23,720
Tam jest też brakujący kontekst, np.

504
00:38:24,000 --> 00:38:32,120
To jest strasznie ważne, że bardzo często nawet jeśli definicja czy stwierdzenie jest prawdziwe,

505
00:38:32,120 --> 00:38:38,880
to np. jest uwiarygodnione zdjęciem, które jest zupełnie przedstawione w innym kontekście

506
00:38:39,520 --> 00:38:43,080
albo pochodzące z innego roku, więc to jest bardzo ważne.

507
00:38:43,600 --> 00:38:51,360
Właśnie ja też w tej książce akurat gdzieś tam się zatrzymałam na tym, w jaki sposób

508
00:38:51,440 --> 00:38:56,200
generalnie młodzi ludzie są narażeni na teorie spiskowe.

509
00:38:56,200 --> 00:39:06,480
Już nie tylko w kontekście Wikipedii, ale też tego, że Wikipedia jest źródłem informacji,

510
00:39:06,480 --> 00:39:09,880
które może odkłamywać te fałszywe informacje.

511
00:39:10,280 --> 00:39:16,880
I tam był taki wątek akurat smug chemicznych, chemtrailsów, które my na demagogu

512
00:39:16,960 --> 00:39:18,800
regularnie o nich piszemy.

513
00:39:18,840 --> 00:39:24,080
Więc to jest bardzo, bardzo stara teoria spiskowa, która ciągle do nas wraca.

514
00:39:24,080 --> 00:39:34,040
Chodzi głównie o to, że samoloty rozsiewają różne smugi chemiczne i w tym jest jakieś

515
00:39:34,040 --> 00:39:40,720
ukryte znaczenie, że one mogą nam zaszkodzić, może w ogóle unicestwić cały świat.

516
00:39:40,720 --> 00:39:46,000
Tam jest bardzo dużo różnych wątków, pod różnym kątem jest to analizowane.

517
00:39:46,000 --> 00:39:54,240
I dla mnie ciekawe było to, o czym ja myślałam, to od razu zajrzałam na Wikipedię,

518
00:39:54,240 --> 00:39:57,640
w jaki sposób opisuje akurat ten temat.

519
00:39:57,680 --> 00:40:07,240
I jest bardzo ciekawe skondensowany wpis, który pierwsze dwa słowa to teoria spiskowa

520
00:40:07,240 --> 00:40:15,440
i bardzo mnie to ucieszyło, że nie ma tam to lobby anty albo wierzące w tę teorię,

521
00:40:15,440 --> 00:40:21,400
że gdzieś tam nie jest silne i nie próbuje forsować swojej jakiejś tam agendy.

522
00:40:21,800 --> 00:40:29,480
Więc bardzo mnie to ucieszyło, dlatego że jakby patrząc na cały ekosystem mediów

523
00:40:29,480 --> 00:40:36,880
społecznościowych i to w jakich bańkach bardzo często żyjemy, to ja jednocześnie

524
00:40:36,880 --> 00:40:42,080
bardzo mocno rozumiem fenomen Wikipedii i się nim zachwycam, że pomimo że wiem,

525
00:40:42,080 --> 00:40:49,760
że te środowiska, które są anty, są bardzo często bardzo zmotywowane i bardzo aktywne.

526
00:40:50,240 --> 00:40:57,000
I pomimo tego Wikipedia przez lata wypracowała ten system oznaczania czy dodawania źródeł,

527
00:40:57,000 --> 00:41:04,600
który pozwala jakby pomimo tej takiej silnej agendy przedstawiać te informacje w sposób

528
00:41:04,600 --> 00:41:08,080
wiarygodny. Więc bardzo mnie to ucieszyło.

529
00:41:08,080 --> 00:41:15,800
I w tej książce był też taki ciekawy wątek, mam nadzieję, że dla naszych oglądających też,

530
00:41:16,520 --> 00:41:24,360
że autorka książki robiła badania dotyczące tego w ogóle skąd się ta teoria wzięła,

531
00:41:24,360 --> 00:41:30,000
skąd w ogóle ludzie weszli w tą bańkę tych smug chemicznych.

532
00:41:30,400 --> 00:41:36,080
I to było dla mnie ciekawe, że wszystko się zaczęło od YouTube'a i dopiero później

533
00:41:36,080 --> 00:41:40,240
zaczęło być pogłębiane na różnych grupach na Facebooku.

534
00:41:40,560 --> 00:41:46,040
Więc to też jest taki ciekawy wątek poruszony w tej książce.

535
00:41:46,040 --> 00:41:50,720
Ja myślę, że jak ktoś chce właśnie o teoriach spiskowych, to też tam właśnie w książce

536
00:41:50,720 --> 00:41:59,040
znajdzie kilka wątków ciekawych i takich właśnie z perspektywy badawczej pokazanych.

537
00:41:59,040 --> 00:42:03,000
OK, wracamy do Ciebie Tomku, bo chciałaś coś skomentować, a ja chciałam Cię o ten neutralny

538
00:42:03,000 --> 00:42:09,880
punkt widzenia jeszcze dopytać, który Wikipedia właśnie ma, chce mieć, dąży do

539
00:42:09,880 --> 00:42:12,680
niego. Byś trochę powiedział, na czym to polega.

540
00:42:14,200 --> 00:42:17,720
Poruszałem w tych naszych rozmowach tyle ciekawych wątków, że właściwie do każdego by

541
00:42:17,720 --> 00:42:19,680
chciało się odnieść i skomentować.

542
00:42:19,960 --> 00:42:24,600
Na szybko powiem tylko o tym czacie GPT, co mi w nim najbardziej przeszkadza.

543
00:42:25,280 --> 00:42:26,600
Tam nie ma nigdy żadnych źródeł.

544
00:42:26,680 --> 00:42:29,120
Nie wiemy skąd on bierze swoje zasoby.

545
00:42:29,120 --> 00:42:33,520
Wiemy tylko, że ma ich bardzo dużo i z różnych największych źródeł nie dał radę

546
00:42:33,520 --> 00:42:36,920
znać i w tym całą Wikipedię sobie załadował przecież też.

547
00:42:37,360 --> 00:42:42,200
Ale on nie powie nam w tej konkretnej odpowiedzi na podstawie czego jej udzielił.

548
00:42:42,440 --> 00:42:44,440
Tej informacji nie dostaniemy nigdy.

549
00:42:44,440 --> 00:42:47,720
Tylko tyle się dowiemy, że on stara się odpowiedzieć jak najlepiej i że sobie tam

550
00:42:47,720 --> 00:42:49,360
przetwarza to co ma i w ogóle.

551
00:42:49,360 --> 00:42:55,160
Ale to już jest dla nas bardzo wtedy niebezpieczne, bo musimy ufać, że zrobił to

552
00:42:55,160 --> 00:42:59,120
dobrze, a jak widzimy jakość tych odpowiedzi to na razie jest to jeszcze bardzo wstępny

553
00:43:00,360 --> 00:43:05,840
poziom i tutaj trzeba z naprawdę dużą ostrożnością do tego źródła podchodzić.

554
00:43:05,840 --> 00:43:10,160
Ale jak się spotkamy za sześć miesięcy, to być może już będziemy naprawdę w zupełnie

555
00:43:10,160 --> 00:43:13,040
innym miejscu patrząc jak szybko się tutaj rozwija.

556
00:43:13,240 --> 00:43:15,840
Więc trudno powiedzieć, bo czatecz ma duże opóźnienie.

557
00:43:15,840 --> 00:43:18,080
Ta jego baza się kończy tutaj dwa lata temu.

558
00:43:18,080 --> 00:43:21,480
Tak i on na przykład o to my często pytamy co się dzieje teraz.

559
00:43:21,480 --> 00:43:25,600
On na przykład chyba w ogóle nie jest świadom tego, że jest wojna w Ukrainie, bo po

560
00:43:25,600 --> 00:43:30,080
prostu się skończyły jego bazy zbierania dużo wcześniej i on ma duże kłopoty z

561
00:43:30,080 --> 00:43:30,760
aktualnością.

562
00:43:30,760 --> 00:43:37,400
Ale zostawmy czaty, czaty już tylko naszym takim dzisiaj jednym z wątków.

563
00:43:37,520 --> 00:43:42,960
Wróćmy do tego właśnie neutralnego punktu widzenia, bo to jest coś co jest takiego,

564
00:43:43,040 --> 00:43:47,360
co wyróżnia Wikipedię, ale kto definiuje co jest neutralnym punktem widzenia?

565
00:43:47,360 --> 00:43:52,480
To mamy tą zasadę generalnie dość dobrze opisaną wśród naszych zasad.

566
00:43:53,000 --> 00:43:57,720
Neutralny punkt widzenia tak naprawdę polega na tym, że wikipedyści w przypadku

567
00:43:57,720 --> 00:44:02,040
istnienia różnych poglądów, bo przede wszystkim do tego się odnosi, gdy są różne

568
00:44:02,040 --> 00:44:09,640
poglądy na przykład w nauce czy w dyskursie jakimś, co do istnienia czegoś lub

569
00:44:09,720 --> 00:44:15,440
wyjaśniania czegoś, to wikipedyści powinni przedstawić w sposób nie przedstawiający

570
00:44:15,440 --> 00:44:20,240
kto tu ma rację, tylko precyzujący zgodnie z najnowszym stanem rzeczy.

571
00:44:20,240 --> 00:44:26,040
Więc oczywiście też nie powiemy, że Kopernik wymyślił to, a jednak być może to jest

572
00:44:26,040 --> 00:44:30,720
odwrotnie. No jeżeli obecny stan rzeczy mówi, że jednak Kopernik ma rację, to

573
00:44:30,720 --> 00:44:32,080
przedstawiamy go w ten sposób.

574
00:44:32,320 --> 00:44:36,520
Ale jeżeli byśmy dzisiaj mieli nowe odkrycie, które dosłownie w tym roku powstało

575
00:44:36,520 --> 00:44:41,600
opublikowane, to my nie możemy jeszcze jako wikipedyści obecnego Kopernika już od

576
00:44:41,600 --> 00:44:46,960
razu wyróżnić, że no to już jest na pewno, poczekajmy z tym jak porządny encyklopediarz

577
00:44:46,960 --> 00:44:48,440
inni przyznane ją rację.

578
00:44:48,680 --> 00:44:52,440
Więc jeżeli mamy w Nature najnowszy artykuł, który mówi, że nie, to nieprawda z tym, co

579
00:44:52,440 --> 00:44:57,280
do tej pory wszyscy myśleli, musimy to podać, ale podajemy też te wcześniejsze

580
00:44:57,280 --> 00:45:03,680
teorie, jakie są w nauce i pozostajemy czytelnikowi tą swobodę do wyboru, więc

581
00:45:03,680 --> 00:45:08,640
nie oceniamy kto ma rację, staramy się opisać po prostu rzetelnie te różne punkty

582
00:45:08,640 --> 00:45:11,880
widzenia bez jakiegoś wartościowania ich.

583
00:45:12,600 --> 00:45:16,960
Tak, według możliwie najnowszego stanu w nauce, a to też się oczywiście często

584
00:45:16,960 --> 00:45:20,680
zmienia w niektórych naukach, więc to bywa też oczywiście problemem, bo jak się ma

585
00:45:21,040 --> 00:45:22,280
artykuł opisany np.

586
00:45:22,280 --> 00:45:26,880
w jakiejś dziedzinie, która się bardzo szybko rozwija, 15 lat temu, no to często już ta

587
00:45:26,880 --> 00:45:28,040
wiedza mogła się zmienić.

588
00:45:28,400 --> 00:45:32,920
Ale idea jest właśnie taka, że nie decydujemy, kto nam się gwarancuje.

589
00:45:32,920 --> 00:45:38,360
Przy politycznych pisach, tak?

590
00:45:38,360 --> 00:45:42,320
Dam Wam przykład, wiecie co, może my sobie wyobrazili coś konkretnego, np.

591
00:45:42,320 --> 00:45:47,160
skąd się wzięli Słowiany, gdzie oni pierwotnie mieszkali, zanim się rozprzestrzenili

592
00:45:47,160 --> 00:45:48,400
w naszej części Europy.

593
00:45:48,680 --> 00:45:54,160
Jak wiemy, w nauce są różne teorie, które precyzują te teorie, od Bajkału poprzez

594
00:45:54,160 --> 00:45:58,120
Ukrainę, od najróżniejszych miejscach, więc nie mogą wikpedyści polscy sobie

595
00:45:58,120 --> 00:46:01,920
pomyśleć, no dobra, nam się najbardziej podoba, że ci Słowianie mieli siedzibę tu i tu,

596
00:46:01,920 --> 00:46:05,080
więc to przedstawmy jako główne, poznań resztę tam jakoś na u boku.

597
00:46:05,400 --> 00:46:10,040
Musimy rzetelnie przedstawić te wszystkie i wtedy po prostu czytelnik zna ten stan

598
00:46:10,040 --> 00:46:12,000
rzeczy, jaki on jest według...

599
00:46:12,200 --> 00:46:15,080
Ale to Wysłowianie wydają mi się łatwiejsi np.

600
00:46:15,080 --> 00:46:16,320
niż polska polityka.

601
00:46:16,560 --> 00:46:23,920
Jak przy takim podziale, jaki mamy w społeczeństwie, jak są edytowane te

602
00:46:23,920 --> 00:46:25,440
polityczne hasła np.

603
00:46:25,440 --> 00:46:26,560
w polskiej Wikipedii?

604
00:46:26,560 --> 00:46:31,960
Czy tutaj ten neutralny punkt widzenia jest łatwy do uzyskania czy nie?

605
00:46:31,960 --> 00:46:32,920
Jakie masz poczucie?

606
00:46:33,440 --> 00:46:37,400
No tu jest właśnie to, co mówiliśmy, że wiesz, my mamy wikipedystów bardzo różnych,

607
00:46:37,400 --> 00:46:42,960
tak, czyli to, że mamy ludzi, którzy będą jakby patrzeć pod kątem tej uczciwości

608
00:46:42,960 --> 00:46:49,000
opisania polityków z różnych obozów, to jakby jakaś nieuczciwość, gdybyśmy chcieli np.

609
00:46:49,120 --> 00:46:51,240
nie wiem, zaburzyć te proporcje np.

610
00:46:51,240 --> 00:46:57,800
szeregowych działaczy partii X, odpisywalibyśmy np. bardzo dokładnie, a partii Y już nie,

611
00:46:58,000 --> 00:46:59,240
to ktoś by to zauważył.

612
00:46:59,240 --> 00:47:06,960
Więc ja uważam, że możemy się czuć zadowoleni, że mamy wysoki poziom raczej tych haseł o

613
00:47:06,960 --> 00:47:12,080
politykach, gdzie te fakty z życia też są prezentowane w sposób uczciwy, bo tu wiecie,

614
00:47:12,080 --> 00:47:15,480
zawsze jest najgorsze, jaka jest część artykułu najtrudniejsza do pisania?

615
00:47:15,480 --> 00:47:16,880
No kontrowersje, tak?

616
00:47:16,880 --> 00:47:22,200
Jakiś polityk zawsze coś zrobi i teraz ile czasów w artykule poświęcić miejsca na jakąś

617
00:47:22,200 --> 00:47:27,520
aferę z nim związaną, tak, że gdzieś był w prokuraturze, opowiażony o coś albo odpowiadał za

618
00:47:27,520 --> 00:47:32,520
coś. Więc to są oczywiście długie, burzliwe dyskusje i teraz na mocy właśnie jakiegoś

619
00:47:32,520 --> 00:47:37,640
konsensusu się buduje, że jak ta sekcja ma być szeroko ujęta.

620
00:47:37,720 --> 00:47:41,600
I np. jak ktoś przesadzi z tymi szczegółowościami np.

621
00:47:41,600 --> 00:47:46,280
jakiejś tam małą kwestii istotnej w biogramie polityka, która tym zajmuje media rzeczywiście

622
00:47:46,280 --> 00:47:50,920
w danym momencie bardzo mocno, bo się to o tym wszyscy mówią.

623
00:47:51,200 --> 00:47:55,680
Nawet w tym momencie jest taka tendencja do rozszerzenia tej sekcji ponad miarę, ale potem

624
00:47:55,680 --> 00:47:59,840
przychodzi ktoś bardziej ogarnięty i mówi, no dobra, to nie jest ponadczasowo tak ważne, żeby

625
00:47:59,840 --> 00:48:02,600
poświęcać temu ileś karpetów, wystarczy jedno zdanie.

626
00:48:03,000 --> 00:48:06,360
I się robi po prostu właśnie zgodnie z tą zasadą ważności, tak?

627
00:48:07,720 --> 00:48:13,000
Jakby, że tak powiem, mówię tak troszkę już w skrócie, bardziej tak upraszczając, no nadaje się

628
00:48:13,000 --> 00:48:16,360
temu odpowiednią wagę, tak? I uczciwie się podchodzi, tak?

629
00:48:16,360 --> 00:48:21,440
Ja zakładam, że po prostu nasz poziom, jeśli chodzi o Wikipedię, jeżeli chodzi o, że ten

630
00:48:21,440 --> 00:48:25,760
rozsądek polityczny jest naprawdę wysoki, bo o ile media często nie kryją się ze swoimi

631
00:48:25,760 --> 00:48:26,880
sympatiami, tak?

632
00:48:27,160 --> 00:48:32,040
To to to administratorzy, tak jak ja, to zwyty obrywają porówno od wszystkich stron.

633
00:48:32,200 --> 00:48:36,600
Czyli wygląda na to, że raczej jesteśmy dość obiektywni, bo, bo Krzysy nam zarzucają, że

634
00:48:36,600 --> 00:48:40,480
jesteśmy tutaj na pewnej swojej stronie, więc to już jest jakiś dobry przykład.

635
00:48:40,480 --> 00:48:44,040
Tak, jeśli z dwóch stron wam się obrywa, to być może...

636
00:48:44,040 --> 00:48:51,400
Ja już byłem od początków lat 2000, więc ja już wszystkie po kolei te partie, jakie tam

637
00:48:51,400 --> 00:48:56,400
mnie rządziły, to pamiętam, bo wszyscy po kolei tam czasami pisali, że no to ich to my się

638
00:48:56,400 --> 00:48:59,000
tutaj, prawda, o nich za mało, czy nie tak?

639
00:49:01,840 --> 00:49:06,480
To jest taki aspekt, który nas łączy, że dokładnie tak samo to wygląda wśród

640
00:49:06,480 --> 00:49:14,080
fact checkerów, że my na koniec dnia mówimy, ale to wy oceniacie i to wy później

641
00:49:14,520 --> 00:49:17,080
decydujecie, czy dla was to jest wiarygodne, czy nie.

642
00:49:17,320 --> 00:49:23,880
My wam przedstawiamy fakty, no a że nie wszyscy uznają coś takiego, jak istnieje

643
00:49:23,880 --> 00:49:29,800
obiektywnego faktu, no to wtedy zaczyna się właśnie ten problem i przypisywanie tych

644
00:49:29,800 --> 00:49:32,160
takich łatek i przynależności.

645
00:49:32,160 --> 00:49:33,800
Ja mogę, bo już długo czekam.

646
00:49:33,800 --> 00:49:40,480
Tak, właśnie do Ciebie teraz już zmierzam, a potem tak naprawdę będziemy już taką

647
00:49:40,480 --> 00:49:44,240
końcową rundkę mieli, bo czas nam strasznie szybko płynie, ale Klaudio, proszę.

648
00:49:44,880 --> 00:49:50,600
Tak, odnosząc się do tego, co powiedziała Małgosia, fakty mogą być obiektywne, ale

649
00:49:50,600 --> 00:49:52,320
fakty to jeszcze nie jest wiedza.

650
00:49:52,680 --> 00:49:58,280
I tutaj płynnie przejdę do Tomasza, który mówił o tej neutralności bardzo pięknie,

651
00:49:58,280 --> 00:50:04,880
ale moim takim trochę kijem w mrowisko, który zawsze lubię wkładać jest to, czy

652
00:50:05,520 --> 00:50:10,320
takie rozumienie neutralności jako zaprezentowanie wszystkich, no w cudzysłowie

653
00:50:10,320 --> 00:50:15,440
oczywiście, poglądów, czy przekonań, czy teorii, czy aby na pewno to jest rzetelność.

654
00:50:15,680 --> 00:50:22,800
Dlatego twierdzę, że Wikipedia nie jest encyklopedią, bo w encyklopedii nikt nie

655
00:50:22,800 --> 00:50:29,880
będzie przedstawiał np. teorii, które są kompletnie niezasadne albo które są już

656
00:50:30,480 --> 00:50:37,040
powiedzmy w konsensusie naukowym w jakiś sposób zdementowane czy zdezaktualizowane.

657
00:50:37,560 --> 00:50:43,160
No i teraz chociażby case osób, które powiedzmy wierzą w płaską ziemię.

658
00:50:43,200 --> 00:50:49,760
To jest już teoria, już jakby są pewne źródła medialne, które ją propagują.

659
00:50:49,760 --> 00:50:56,520
Są jakieś argumenty, nawet wyjęte jakieś pojedyncze publikacje paranaukowe.

660
00:50:56,840 --> 00:51:02,080
I teraz czy warto z pozycji neutralności prezentować tego typu treści?

661
00:51:02,080 --> 00:51:06,800
Daję oczywiście taki prosty przykład, od razu można powiedzieć, że nie, ale to jest

662
00:51:06,800 --> 00:51:07,760
bardzo subtelne.

663
00:51:08,120 --> 00:51:18,040
Ja ostatnio w Polsce trwa dość duża debata po reportażu w TVN24 o pedofilii w Kościele.

664
00:51:18,040 --> 00:51:26,280
Przejrzałam sobie hasła na Wikipedii i tam jest kilka zdań zacytowanych z reportażu,

665
00:51:26,280 --> 00:51:32,200
chociaż inne publikacje dziennikarskie mówią już o tym, że to jest nieprawda.

666
00:51:32,440 --> 00:51:37,000
I teraz ja wiem, że Wy możecie za chwilę to zmienić, bo tak jak powiedziałeś w procesie

667
00:51:37,000 --> 00:51:41,720
dochodzenia do tego ostatecznego artykułu jest to możliwe.

668
00:51:42,000 --> 00:51:47,200
No ale część ludzi przeczyta ten artykuł teraz albo przeczytało go wcześniej i ta

669
00:51:47,200 --> 00:51:48,600
wiedza w nich zostanie.

670
00:51:48,600 --> 00:51:55,200
Więc w tym znaczeniu wydaje mi się, że jest wyzwanie przed Wikipedią, które, teraz

671
00:51:55,200 --> 00:52:00,040
wracam do tego wątku, do którego się zgłosiłam, czyli które paradoksalnie jest jej

672
00:52:00,040 --> 00:52:02,600
wielką szansą w walce z czatem GPT.

673
00:52:02,680 --> 00:52:09,280
Ja przynajmniej taką szansę widzę dla Wikipedii, dlatego że czat GPT nie ma dostępu

674
00:52:09,280 --> 00:52:15,920
do bibliotek, to jest celowo to zdjęcie za mną, do książek, które wikipedyści jako

675
00:52:15,920 --> 00:52:20,320
ludzie mogą przeczytać, a i przepisać do Wikipedii jako źródła.

676
00:52:20,320 --> 00:52:24,920
Czat GPT tego nie zrobi, on buduje swoją wiedzę na podstawie tylko i wyłącznie tych

677
00:52:24,920 --> 00:52:26,680
zasobów, które są w internecie.

678
00:52:27,080 --> 00:52:31,280
I teraz potencjał w kontekście też walki z teoriami spiskowymi, o których wspomniała

679
00:52:31,280 --> 00:52:35,720
wcześniej Małgosia, ale też w kontekście tych przyszłościowych zagrożeń, które niesie,

680
00:52:35,720 --> 00:52:38,120
na przykład to, że czat GPT wymyśla źródła.

681
00:52:38,120 --> 00:52:39,760
Ty powiedziałeś, że on ich nie podaje.

682
00:52:40,040 --> 00:52:45,200
Nie, nie, nie, on je podaje i to bardzo szczegółowo i bardzo często są one źródłami

683
00:52:45,200 --> 00:52:51,280
nieistniejącymi i osoba, która powiedzmy ma specjalistyczną wiedzę w danym temacie

684
00:52:51,440 --> 00:52:55,920
bardzo szybko to rozpozna, ale osoby, które tej wiedzy nie mają mogą uznać te źródła,

685
00:52:55,920 --> 00:52:58,560
które podaje czat GPT za wiarygodne.

686
00:52:58,880 --> 00:53:04,440
No a właśnie teraz dzięki temu, że Wikipedia ma te zasady, że ta społeczność ciągle nad tym

687
00:53:04,440 --> 00:53:11,960
pracuje, jest to w moim przekonaniu duża szansa do tego, żeby w jakiś sposób kognitywnie

688
00:53:11,960 --> 00:53:19,400
próbować neutralizować te błędy czy wypaczenia, które może generować ten model językowy,

689
00:53:19,400 --> 00:53:21,520
który wykorzystuje czat GPT.

690
00:53:22,920 --> 00:53:28,480
Dobrze, ja tutaj zrobię kropkę, przepraszam, bo chcę ad vocem szybko Tomkowi oddać głos, bo

691
00:53:28,480 --> 00:53:35,440
rozumiem odpowiedzieć, a potem przejdziemy już do rundki końcowej, bo niestety nasz czas się

692
00:53:35,440 --> 00:53:43,960
kończy, ale czat GPT na pewno dzisiaj się czerwieni, że tyle o nim mówimy, więc Tomku.

693
00:53:43,960 --> 00:53:48,520
Ja tylko chciałem sprecyzować, że neutralne punkty widzenia na pewno nie zrównuje wszystkich

694
00:53:48,520 --> 00:53:53,720
teorii tam starych, starożytnych z nowymi, najnowszymi, tylko po prostu według tego, jak

695
00:53:53,720 --> 00:54:00,680
najlepsze, najnowsze źródła twierdzą, tak, czyli na pewno nie będziemy według tego neutralnego

696
00:54:00,680 --> 00:54:07,440
punktu widzenia równoważyć źródeł sprzed 50 lat z nowymi, kiedy nowe już dawno udowodniły jakąś

697
00:54:07,440 --> 00:54:11,640
nieprawdziwość tych poprzednich teorii, tylko po prostu w historii zmian opiszemy, że, znaczy

698
00:54:11,640 --> 00:54:17,880
w historii zmian postępu danych badań, że kiedyś były takie, a takie poglądy, ale już

699
00:54:17,880 --> 00:54:23,080
przedstawimy je tylko jako historyczne, więc to jest oczywiście dla nas jasne, że neutralny punkt

700
00:54:23,080 --> 00:54:29,160
widzenia przedstawia tę najlepszą wiedzę, jaka istnieje teraz wśród badaczy, którzy się

701
00:54:29,160 --> 00:54:33,720
zajmują tym tematem, tak, i że jeżeli są, no przecież wiemy, że są różne poglądy czasami

702
00:54:33,720 --> 00:54:38,440
wciąż dzisiaj na różne tematy, czy w naukę społecznej, czy w jakichkolwiek innych, no to

703
00:54:38,680 --> 00:54:42,760
naszym obowiązkiem jest jedynie je przedstawić, nie pomijać tylko np. dlatego, że jesteśmy

704
00:54:42,760 --> 00:54:47,600
prywatni, zwolennikami tylko jednej z nich, ale zobowiązani jesteśmy przedstawić też te

705
00:54:47,600 --> 00:54:52,400
pozostałe, no więc dlatego się chciałem odnieść, no a…

706
00:54:52,400 --> 00:54:59,480
A wrócę do Ciebie za chwilę na rundkę taką już na końcu, a zacznę może rundkę końcową od

707
00:54:59,480 --> 00:55:09,000
Małgosi, pytanie jest dla Was wszystkich, co trzeba zrobić, żeby właśnie Wikipedia była

708
00:55:09,000 --> 00:55:15,960
bardziej wiarygodna, albo co Wy byście radzili Wikipedii, albo co my wszyscy możemy zrobić,

709
00:55:15,960 --> 00:55:22,640
żeby jakby to źródło faktycznie stało się jeszcze bardziej wiarygodne i żeby nie trzeba było

710
00:55:22,640 --> 00:55:26,880
się wahać, czy podnieść rękę przy pytaniu, czy możemy jej ufać, czy nie.

711
00:55:26,920 --> 00:55:27,520
Małgosiu.

712
00:55:29,080 --> 00:55:35,000
Myślę, że edukacja to jest najważniejsza w kontekście wiarygodności i doboru źródeł i według

713
00:55:35,000 --> 00:55:41,040
mnie to już wystarczy, jeśli będziemy mieć jakiś konsensus co do tego, jakie źródło jest

714
00:55:41,040 --> 00:55:47,800
wiarygodne, a jakie nie jest wiarygodne, bo to jest największe wyzwanie w dzisiejszym świecie,

715
00:55:47,800 --> 00:55:54,800
że przecież płaskoziemcy, o których Klaudia wspominała, też mają swoje internetowe źródła.

716
00:55:55,200 --> 00:56:02,360
I teraz, kiedy każdy ma swoje własne źródła, gdzie tutaj znaleźć te właściwe, które mówią o

717
00:56:02,360 --> 00:56:05,360
faktach, o właśnie tej wiedzy naukowej.

718
00:56:05,360 --> 00:56:12,520
Dlatego z mojej perspektywy mówienie o tych źródłach, więcej mówienia o źródłach na

719
00:56:12,520 --> 00:56:21,360
Wikipedii i takiej też edukacji wikipedystów na temat tego, dlaczego może to doniesienie

720
00:56:21,360 --> 00:56:25,640
medialne na temat jakiegoś raportu niekoniecznie jest adekwatne.

721
00:56:25,640 --> 00:56:28,440
Może warto sięgnąć dalej, poszukać głębiej.

722
00:56:28,440 --> 00:56:37,200
I ta myśl dotycząca edukacji, kompetencji cyfrowej też nam towarzyszy na co dzień w

723
00:56:37,200 --> 00:56:40,400
organizacji, dlatego też o tym wspominam.

724
00:56:40,760 --> 00:56:48,560
I w ogóle, jak opowiadałeś Tomasz o tej neutralności, to w ogóle nigdy nie myślałam o

725
00:56:48,560 --> 00:56:52,120
Wikipedii jako narzędziu walki z dezinformacją.

726
00:56:52,120 --> 00:56:58,480
I mam nadzieję, że to jest taki fajny początek, żeby też mocniej o tym mówić, że

727
00:56:58,480 --> 00:57:03,640
Wikipedia też może walczyć z dezinformacją, która jest coraz bardziej powszechna.

728
00:57:04,680 --> 00:57:06,040
Super, bardzo dziękuję.

729
00:57:06,040 --> 00:57:06,640
Kamilu.

730
00:57:08,880 --> 00:57:10,600
Runtka końcowa u ciebie.

731
00:57:10,600 --> 00:57:17,040
Głowa mi się teraz rozgrzała strasznie na koniec od tych kilku wątków, ale to może

732
00:57:17,040 --> 00:57:22,280
nietypowo, ponieważ ja się bardzo boję, że w gonitwie za tym, za umiejętnością

733
00:57:22,280 --> 00:57:27,520
dociekania i sprawdzania źródeł trochę będziemy przegrywać z technologią i ona zbyt

734
00:57:27,520 --> 00:57:31,000
szybko generuje nowe źródła i zbyt szybko możemy popełniać błędy.

735
00:57:31,000 --> 00:57:35,160
To widać w mediach w ogóle tradycyjnych internetowych, jak cokolwiek to jeszcze

736
00:57:35,160 --> 00:57:39,120
znaczy, które tak szybko gonią za tym, żeby raportować, że popełniają bardzo dużo

737
00:57:39,120 --> 00:57:40,480
błędu w sposób coraz łatwiej.

738
00:57:41,040 --> 00:57:44,840
I tylko sztuczna inteligencja i potem narzędzia przyspieszą to, że w źródłach nawet

739
00:57:44,840 --> 00:57:47,160
zaufanych błędów będzie coraz więcej.

740
00:57:47,960 --> 00:57:50,960
Więc zastanawiam się, a propos tego co powiedziałaś, Małgorzata, znaczy być może

741
00:57:50,960 --> 00:57:55,040
musimy pomyśleć i to jest dla mnie super ciekawe zadanie dla Wikipedii jako jednej z

742
00:57:55,040 --> 00:57:59,520
topowych stron internetowych na świecie, w jaki sposób my możemy uczyć tego

743
00:57:59,520 --> 00:58:03,800
dociekania i krytycznego myślenia trochę inaczej niż robiliśmy to teraz, bo wydaje mi

744
00:58:03,800 --> 00:58:08,320
się, że to powinno pójść głębiej niż tylko sprawdzaj więcej źródeł, sięgaj głębiej,

745
00:58:08,320 --> 00:58:13,640
doczytuj, bo tego nie będziemy w stanie robić i tutaj trochę zawsze przegramy tempem i

746
00:58:13,640 --> 00:58:17,200
szybkością analizy i generowania treści z maszynami.

747
00:58:17,880 --> 00:58:23,640
Więc żeby zupełnie nie rozpaść się i mieć komu ufać, ta Wikipedia w takiej roli

748
00:58:23,640 --> 00:58:28,280
właśnie trochę medialnej, bardzo tradycyjnej, to jest dla mnie coś bardzo istotnego.

749
00:58:28,280 --> 00:58:32,360
I jakby szukałbym takich rozwiązań, w których Wikipedia dla czytelnika, czytelniczki,

750
00:58:32,360 --> 00:58:38,160
który nie chce zostać naukowczynią, nie potrzebuje, nie ma czasu na to, jest godnym

751
00:58:38,160 --> 00:58:43,600
zaufania źródłem i być może Wikipedia w jakiś sposób w takiej opozycji do mediów,

752
00:58:43,600 --> 00:58:48,160
które robią to szybciej i nie mają takich zasad, może tak powiem właśnie trochę zwolnić

753
00:58:48,160 --> 00:58:52,000
to tempo, w jakim my patrzymy na informacje i szukamy cały czas tych najnowszych i

754
00:58:52,000 --> 00:58:56,040
najświeższych, no bo chociażby nie goni tak za klikami, tak jak gonią media.

755
00:58:56,320 --> 00:59:00,040
Więc jakby tego bym szukał i to jest myślę, że jakiś kierunek, który może wzmocnić

756
00:59:00,040 --> 00:59:01,040
zaufanie Wikipedii.

757
00:59:02,080 --> 00:59:03,560
Dziękuję bardzo. Klaudia.

758
00:59:03,560 --> 00:59:11,600
Ja już dałam kilka, mam wrażenie, takich pomysłów, które rozważałam, czyli przede

759
00:59:11,600 --> 00:59:16,760
wszystkim przeniesienie na górę tych informacji związanych z takim ostrzeganiem o

760
00:59:16,760 --> 00:59:22,400
tym, że np. dane hasło nie jest skończone albo nie jest jeszcze to wersja ostateczna lub

761
00:59:22,400 --> 00:59:27,240
ewentualnie jakiś inny system transparentności edycji.

762
00:59:27,240 --> 00:59:33,720
Myślę, że w ogóle transparentność jest słowem kluczem w przypadku budowania wiarygodności,

763
00:59:33,960 --> 00:59:40,000
bo ja rozumiem, że te zasady są, że społeczność je zna, ale nie do końca jest to

764
00:59:40,000 --> 00:59:47,080
jasne, jak czyta się już sam wytwór ostateczny, czyli to hasło, więc być może ten

765
00:59:47,080 --> 00:59:53,240
kierunek. Fajny był ten pomysł związany z kategoryzacją haseł.

766
00:59:53,240 --> 01:00:00,160
Mi jako naukowcowi od razu się to spodobało, bo może faktycznie można by było pokusić

767
01:00:00,160 --> 01:00:05,040
się o jakąś próbę stworzenia haseł bardziej akademickich i tych bardziej opartych,

768
01:00:05,040 --> 01:00:07,600
powiedzmy, na teraźniejszych źródłach medialnych.

769
01:00:07,600 --> 01:00:09,520
Wtedy łatwiej by było np.

770
01:00:09,840 --> 01:00:15,560
budować zaufanie wobec tych haseł akademickich, a te hasła medialne oparte na

771
01:00:15,560 --> 01:00:19,400
źródłach dziennikarskich traktować troszkę bardziej, powiedziałabym, jako

772
01:00:19,400 --> 01:00:24,120
ciekawostkę, czy jako źródło jeszcze wiedzy niepełnej czy niepewnej.

773
01:00:25,680 --> 01:00:27,760
Więc to super.

774
01:00:28,680 --> 01:00:33,040
Dziękuję bardzo i ostatnie zdanie do Tomasza prezesa.

775
01:00:34,200 --> 01:00:39,680
Z racji upełnionej funkcji możesz też powiedzieć nam, jakie Ty masz pomysły.

776
01:00:40,240 --> 01:00:44,120
Szkoda, że ostatnio, bo w tak miłym towarzystwie czas mija tak szybko i chciałoby się jeszcze

777
01:00:44,120 --> 01:00:49,880
te wątki dalej kontynuować, moim zdaniem chyba najważniejsi są ludzie, bo my mówimy

778
01:00:49,880 --> 01:00:54,920
o tych źródłach, tak, ale jeszcze jesteśmy wciąż na tym etapie, że człowiek jest

779
01:00:54,920 --> 01:01:00,280
potrzebny, który umie z nich skorzystać, tak, bo nawet jakbym wziął, prawda,

780
01:01:00,280 --> 01:01:06,720
najlepsze źródła z jakiegoś tematu i dał je osobie, która nie umie z nich korzystać,

781
01:01:06,720 --> 01:01:11,720
przypuszczam, jak mówiła Klaudia wcześniej, zrobilibyśmy zaraz z nich zła, słabych

782
01:01:11,720 --> 01:01:17,560
użytek, bo byśmy nie wiedzieli tak naprawdę o czym piszemy, tak, więc jeżeli damy komuś,

783
01:01:17,560 --> 01:01:21,240
kto nie jest gotowy do korzystania z tych źródeł, bo na przykład nie ma jakichś

784
01:01:21,360 --> 01:01:26,600
podstawowych przynajmniej doświadczeń z daną dziedziną, no to pewnie zrobi z nich słaby

785
01:01:26,600 --> 01:01:28,200
użytek, potrzebni są nam ludzie.

786
01:01:28,680 --> 01:01:33,640
Jeżeli będzie, Wikipedia będzie tak jak jej twórcy, zachęcam więc wszystkich, którzy są

787
01:01:33,640 --> 01:01:38,360
zainteresowani jakością jakiegoś tematu, czy walką z dezinformacją, czy polepszenia

788
01:01:38,360 --> 01:01:42,720
choćby tej działki, którą się interesujecie jako hobbyści, gdzie już macie jakąś wiedzę,

789
01:01:43,040 --> 01:01:46,680
korzystajcie z tych swoich najlepszych źródeł, jakie macie i zapraszam, edytujcie

790
01:01:46,680 --> 01:01:50,960
Wikipedię, bo to jest najlepsza metoda, jaką możecie zrobić, żeby ją poprawić, żebyśmy

791
01:01:50,960 --> 01:01:51,720
jej ufali.

792
01:01:53,240 --> 01:01:58,480
Mam nadzieję, że wszyscy oglądający nas spróbują wyedytować jakieś hasło Wikipedia,

793
01:01:58,480 --> 01:02:03,880
żeby zobaczyć. Jak widać, bardzo wiele jest pomysłów na to, jak zwiększyć wiarygodność

794
01:02:03,880 --> 01:02:10,920
tej organizacji, instytucji, tego zjawiska, jak często też o Wikipedii się mówi,

795
01:02:11,200 --> 01:02:16,080
od walki z dezinformacją przez uczynienie jej jeszcze lepszą platformą medialną,

796
01:02:16,120 --> 01:02:21,280
bardziej transparentną, być może z jakimś dodatkiem akademickim, ale na pewno też

797
01:02:21,560 --> 01:02:26,120
platformą bardzo społecznościową i budującą społeczność.

798
01:02:26,480 --> 01:02:29,000
Bardzo serdecznie dziękuję za naszą dyskusję.

799
01:02:29,000 --> 01:02:34,040
Moimi gościniami były dzisiaj Małgorzata Kilian-Grzegorczyk, prezeska Stowarzyszenia

800
01:02:34,040 --> 01:02:37,800
Demagog i dr Klaudia Rosińska, autorka książki Fake News.

801
01:02:37,800 --> 01:02:43,760
Geneza istota przeciwdziałania, a gośćmi Kamil Śliwowski, Otwarte zasoby i Tomasz

802
01:02:44,160 --> 01:02:46,600
Przeborowski, prezes Wikimedia Polska.

803
01:02:46,920 --> 01:02:50,440
Bardzo serdecznie dziękuję za naszą dzisiejszą dyskusję.

804
01:02:51,200 --> 01:02:52,200
Dziękuję.

805
01:02:55,240 --> 01:02:55,760
Dziękuję.

806
01:02:55,760 --> 01:02:58,840
Dziękuję bardzo.

807
01:02:58,840 --> 01:03:23,840
Nagrywanie się skończyło.