Basque subtitles for clip: File:Ikusgela-Adimen artifiziala.webm

From Wikimedia Commons, the free media repository
Jump to navigation Jump to search
1
00:00:03,240 --> 00:00:07,170
Nork idatzi du datozen minutuetan
esango dudan hau guztia?

2
00:00:07,440 --> 00:00:08,800
Nik neuk? Gidoilari batek?

3
00:00:09,100 --> 00:00:10,930
Edo adimen
artifizala izan al da?

4
00:00:11,080 --> 00:00:14,715
Kontu bakarra da ziurra:
bideo hau sortu eta berehala,

5
00:00:14,739 --> 00:00:17,590
bertan azaltzen dizuguna,
zaharkituta gera liteke.

6
00:00:17,830 --> 00:00:21,588
Gizakiontzat ez da batere
erraza egiletza bereiztea.

7
00:00:21,613 --> 00:00:25,560
Eta horrek, adimen artifizialaren
aurrerapenen neurria ematen digu.

8
00:00:25,585 --> 00:00:28,074
ChatGPT eta antzeko tresnek,

9
00:00:28,098 --> 00:00:30,535
testuak osotasunean
idazteko gaitasuna dute,

10
00:00:30,559 --> 00:00:33,760
zehaztasunez eta
eskatutako estilora moldatuta.

11
00:00:33,820 --> 00:00:37,345
Eta beste tresna batzuk
irudiak hutsetik sortzeko gai dira,

12
00:00:37,369 --> 00:00:39,970
guk emandako
aginduak errespetatuta.

13
00:00:39,995 --> 00:00:41,955
AA edo adimen artifiziala

14
00:00:41,980 --> 00:00:43,030
ez da gai berria.

15
00:00:43,080 --> 00:00:46,850
Abiadura bizian eboluzionatzen ari
den teknologiaren lehenengo probak

16
00:00:46,874 --> 00:00:50,300
1943koak dira,  pentsa.

17
00:00:50,320 --> 00:00:54,454
Baina 2022 geroztik bete-betean
sartu da gure bizitzetan,

18
00:00:54,479 --> 00:00:57,254
eta nola ez, lagunarteko
eztabaidetan.

19
00:00:57,279 --> 00:00:59,720
Baina nola funtzionatzen
du honek guztiak?

20
00:00:59,950 --> 00:01:02,210
Eta zenbat aldatuko
ditu gure bizitzak?

21
00:01:10,001 --> 00:01:13,167
Adimen artifiziala da
makinek duten gaitasuna

22
00:01:13,191 --> 00:01:16,044
normalean giza adimena
behar duten lanak egiteko.

23
00:01:16,068 --> 00:01:21,275
Besteak beste, ikaskuntza, erabakiak
hartzea eta ereduak identifikatzea.

24
00:01:21,300 --> 00:01:23,960
Hori lortzeko, adimen
artifizialaren garatzaileek

25
00:01:23,985 --> 00:01:26,082
neurona-sarea esaten
zaiona erabiltzen dute.

26
00:01:26,433 --> 00:01:29,910
Neurona-sareak zeregin
zailak egiten ikas dezake,

27
00:01:29,950 --> 00:01:33,297
hala nola irudiak ezagutzen
edo hizkuntzak itzultzen.

28
00:01:33,321 --> 00:01:36,538
Sare neuronal batek
esperientziaren bidez ikasten du.

29
00:01:36,563 --> 00:01:39,977
Horrek esan nahi du
datu-multzo batekin entrenatzean,

30
00:01:40,001 --> 00:01:43,840
datu-multzo horrek bere konexioak
eta parametroak doi ditzakeela

31
00:01:44,020 --> 00:01:46,220
nahi den lana egiteko
gaitasuna hobetzeko.

32
00:01:46,270 --> 00:01:50,211
Alegia, algoritmo propioak
sortu eta moldatu ditzakeela,

33
00:01:50,235 --> 00:01:52,450
ikasketa automatikoaren bidez.

34
00:01:52,660 --> 00:01:57,138
Funtsean, neurona-sare bat
"neurona artifizial" askok osatzen dute,

35
00:01:57,162 --> 00:01:59,860
eta elkarrekin konektatutako
geruzetan antolatzen dira.

36
00:01:59,920 --> 00:02:02,763
Neurona bakoitzak
informazio pixka bat jasotzen du

37
00:02:02,787 --> 00:02:06,270
eta eragiketa matematiko
txiki bat egiten du prozesatzeko.

38
00:02:06,350 --> 00:02:10,196
Ondoren, informazio hori hurrengo
geruzako neuronetara pasatzen da,

39
00:02:10,221 --> 00:02:14,100
eta horrela hurrenez hurren,
azken erantzuna lortzen den arte.

40
00:02:14,380 --> 00:02:18,340
Hori bai, datuak eman egin behar
zaizkio neurona-sareari entrenatzeko.

41
00:02:18,390 --> 00:02:20,680
Mota ezberdinetako
ikaskuntza prozesuak daude:

42
00:02:20,988 --> 00:02:24,650
1- Gainbegiratutako ikaskuntza:

43
00:02:24,650 --> 00:02:26,940
entrenamendu mota
hau aurretik etiketatutako

44
00:02:26,964 --> 00:02:28,830
datu multzo bat
dagoenean erabiltzen da,

45
00:02:28,855 --> 00:02:29,675
hau da,

46
00:02:29,700 --> 00:02:33,660
sarrera bakoitzerako erantzun
zuzena zein den jakiten denean.

47
00:02:34,230 --> 00:02:38,100
AAk datu etiketatu
horietatik abiatuta ikasten du,

48
00:02:38,180 --> 00:02:41,520
eta, gero, datu berrietarako
iragarpenak egin ditzake.

49
00:02:42,190 --> 00:02:44,610
2- Gainbegiratu
gabeko ikaskuntza:

50
00:02:45,190 --> 00:02:46,711
entrenamendu mota honetan,

51
00:02:46,736 --> 00:02:49,550
AAk ez du aurretik
etiketatutako daturik.

52
00:02:49,630 --> 00:02:52,220
Horren ordez, datu-multzo
bat aurkezten zaio,

53
00:02:52,244 --> 00:02:56,660
eta datu horien barruan patroiak
edo egiturak aurkitzeko eskatzen zaio.

54
00:02:57,100 --> 00:03:00,020
Hori baliagarria izan
daiteke datuak aztertzeko edo

55
00:03:00,044 --> 00:03:02,060
bezeroak
segmentatzeko, adibidez.

56
00:03:02,414 --> 00:03:05,240
3- Errefortzu
bidezko ikaskuntza:

57
00:03:05,520 --> 00:03:10,460
entrenamendu mota hau AAri
erabakiak hartzen irakasteko erabiltzen da,

58
00:03:10,590 --> 00:03:12,850
sariaren eta zigorraren bidez.

59
00:03:13,140 --> 00:03:14,430
Agertoki bat aurkeztu,

60
00:03:14,510 --> 00:03:16,540
eta ekintza bat
egiteko eskatzen zaio.

61
00:03:16,800 --> 00:03:19,941
Ekintza zuzena bada,
AAk sari bat jasotzen du,

62
00:03:19,965 --> 00:03:23,110
baina ekintza zuzena ez
bada, zigorra jasotzen du.

63
00:03:23,300 --> 00:03:24,165
Denborarekin,

64
00:03:24,190 --> 00:03:28,860
AAk erabaki zuzenak hartzen
ikasten du sariak maximizatzeko.

65
00:03:29,050 --> 00:03:29,975
Adibide bat,

66
00:03:30,000 --> 00:03:33,550
ordenagailu batek aurpegiak
ezagutzen ikas dezan nahi badugu,

67
00:03:33,680 --> 00:03:37,220
horietako bakoitzean agertzen
denari buruzko informazioa duten

68
00:03:37,244 --> 00:03:39,610
irudi etiketatu ugari
emango dizkiogu.

69
00:03:39,800 --> 00:03:42,937
Konputagailuak datuetako
patroiak aztertzen ditu,

70
00:03:42,962 --> 00:03:46,830
eta irudi berrietan aurpegiak
identifikatzeko eredu bat sortzen du.

71
00:03:47,130 --> 00:03:50,059
Eta zergatik da hau
guztia hain esanguratsua?

72
00:03:50,083 --> 00:03:54,147
Batez ere, gure bizitzako alor askotan
erabil daitekeen teknologia delako.

73
00:03:54,172 --> 00:03:58,459
Osasungintzan, adimen artifizialeko
sistemek gaixotasunak diagnostikatzen

74
00:03:58,483 --> 00:04:01,940
eta tratamenduen emaitzak
aurresaten lagun diezaiekete medikuei.

75
00:04:02,080 --> 00:04:06,193
Ordenagailu bidez egiten diren lan
gehienak automatizatzeko gai ere bada,

76
00:04:06,218 --> 00:04:07,700
gero eta emaitza hobeekin.

77
00:04:07,790 --> 00:04:10,646
Diseinu lanak, idatzizkoak,
aurreikuspenak…

78
00:04:10,670 --> 00:04:15,242
Abiada bizian ari da garatzen, eta
gero eta gaitasun ikusgarriagoak ditu.

79
00:04:15,266 --> 00:04:17,690
Baina kontuz, ahots
kritikoak ere badira.

80
00:04:17,820 --> 00:04:18,667
Eta eskerrak:

81
00:04:18,691 --> 00:04:22,052
teknologia honen arriskuez
ohartarazi baikaituzte.

82
00:04:22,076 --> 00:04:25,867
Alde batetik, adimen artifiziala
gero eta aurreratuago bihurtu ahala,

83
00:04:25,891 --> 00:04:27,850
dilema etiko
berriak sortzen dira.

84
00:04:28,070 --> 00:04:28,775
Adibidez,

85
00:04:28,800 --> 00:04:32,710
nor da erantzulea ibilgailu autonomo
batek istripua eragiten badu?

86
00:04:32,730 --> 00:04:35,698
Nola berma dezakegu
adimen artifizialeko sistemek

87
00:04:35,722 --> 00:04:38,170
ez zenbait pertsona-talde
diskriminatzea?

88
00:04:38,236 --> 00:04:40,998
Etikoa al da gizakiak
kaltetu ditzaketen erabakiak

89
00:04:41,022 --> 00:04:43,497
hartuko dituzten adimen
artifizalak sortzea?

90
00:04:43,535 --> 00:04:45,050
Zeinen esku dago teknologia?

91
00:04:45,160 --> 00:04:47,586
Zenek ikuskatu edo
kontrolatzen ditu erabakiak?

92
00:04:47,610 --> 00:04:53,445
Hauek dira teknologiak aurrera egin ahala
landu beharreko dilema etikoetako batzuk.

93
00:04:53,470 --> 00:04:54,505
Eta hizkuntzekin zer?

94
00:04:54,530 --> 00:04:57,587
Hizkuntza gutxituen
komuniteetatik nola begiratu honi?

95
00:04:57,626 --> 00:04:58,955
Ez dago erantzun borobilik.

96
00:04:58,980 --> 00:05:01,710
Hizkuntza gutxituak
eta adimen artifiziala:

97
00:05:01,980 --> 00:05:04,346
Adibidez, itzulpen
automatikoko sistemek

98
00:05:04,370 --> 00:05:08,472
hizkuntza desberdinetako hiztunen
arteko komunikazioa erraztu dezakete,

99
00:05:08,498 --> 00:05:11,312
eta horrek eragin
positiboa izan lezake

100
00:05:11,336 --> 00:05:13,510
hizkuntza gutxituen
zaintza eta sustapenean.

101
00:05:13,560 --> 00:05:15,648
Baliteke, teknologia
hauei esker,

102
00:05:15,673 --> 00:05:18,265
edozein eduki gure
hizkuntzan jaso ahal izatea,

103
00:05:18,289 --> 00:05:21,470
inoren itzulpen edo bikoizketa
lanen premiarik gabe.

104
00:05:21,630 --> 00:05:23,190
Baina oro ez da urre.

105
00:05:23,430 --> 00:05:26,156
Adimen artifizialeko
sistemek aurreiritziak eta

106
00:05:26,180 --> 00:05:30,960
hizkuntza-diskriminazioa
erreproduzitzeko arriskua ere hor dago.

107
00:05:30,985 --> 00:05:34,853
Litekeena da hizkuntza gutxituen
nahiko informazio ez izatea,

108
00:05:34,878 --> 00:05:37,928
eta hortaz, beste hizkuntzetan
baino akats gehiago egitea,

109
00:05:37,952 --> 00:05:39,829
edo ez izatea nahikoa xehetasun,

110
00:05:39,853 --> 00:05:43,618
hizkuntza komunitate txikiagoen
gaineko xehetasunak bereizteko.

111
00:05:43,642 --> 00:05:46,280
Munduan 7000
hizkuntza inguru daude.

112
00:05:46,430 --> 00:05:48,097
Haietako zenbatetan izango da

113
00:05:48,121 --> 00:05:50,880
adimen artifizialaren
gaitasunak baliatzeko aukera?

114
00:05:51,070 --> 00:05:53,110
Adibidez, erabiltzen
diren modeloak,

115
00:05:53,134 --> 00:05:55,844
datu asko dituzten
hizkuntzentzako pentsatuak dira

116
00:05:55,868 --> 00:05:57,654
hizkuntza komunitate horiek

117
00:05:57,678 --> 00:05:59,816
baliabide teknologiko
gehiago izan ohi dituzte.

118
00:05:59,840 --> 00:06:01,870
Horregatik ere, garrantzitsua da

119
00:06:01,890 --> 00:06:04,451
datu erabilgarri eta libre
propioak izateaz gain,

120
00:06:04,475 --> 00:06:07,615
baliabide gutxiago behar
dituzten modeloetan ikerketzea

121
00:06:07,639 --> 00:06:11,350
edo gure antzekoak diren beste hizkuntza
komunitateekin elkarlanean aritzea.

122
00:06:11,400 --> 00:06:13,210
Beldurtu, liluratu?

123
00:06:13,250 --> 00:06:14,699
Zer egiten zaitu honek?

124
00:06:14,723 --> 00:06:17,850
Oso azkar dijoa dena, eta ez
da erraza erritmoa jarraitzea.

125
00:06:17,874 --> 00:06:20,750
Baina ez ahaztu,
informazioa boterea da.

126
00:06:20,930 --> 00:06:24,900
Hemendik saiatuko gara, gure
aletxoa jartzen denok eskura izateko.

127
00:06:25,220 --> 00:06:27,926
Ulertzeak burujabe egiten gaitu.