ABOUT THE SPEAKER
Kevin Kelly - Digital visionary
There may be no one better to contemplate the meaning of cultural change than Kevin Kelly, whose life story reads like a treatise on the value and impacts of technology.

Why you should listen

Kelly has been publisher of the Whole Earth Review, executive editor at Wired magazine (which he co-founded, and where he now holds the title of Senior Maverick), founder of visionary nonprofits and writer on biology, business and “cool tools.” He’s renounced all material things save his bicycle (which he then rode 3,000 miles), founded an organization (the All-Species Foundation) to catalog all life on Earth, championed projects that look 10,000 years into the future (at the Long Now Foundation), and more. He’s admired for his acute perspectives on technology and its relevance to history, biology and society. His new book, The Inevitable, just published, explores 12 technological forces that will shape our future.

More profile about the speaker
Kevin Kelly | Speaker | TED.com
TEDSummit

Kevin Kelly: How AI can bring on a second Industrial Revolution

Κέβιν Κέλι: Πώς μπορεί να φέρει η τεχνητή νοημοσύνη μια δεύτερη Βιομηχανική Επανάσταση

Filmed:
1,739,624 views

«Η πορεία της σταγόνας καθώς κατεβαίνει στην κοιλάδα είναι απρόβλεπτη, αλλά η γενική της κατεύθυνση είναι αναπόφευκτη», λέει ο οραματιστής της ψηφιακής εποχής Κέβιν Κέλι - και η τεχνολογία είναι το ίδιο, οδηγούμενη από μοτίβα απρόσμενα αλλά και αναπόφευκτα. Τα επόμενα 20 χρόνια, λέει, η επιθυμία μας να κάνουμε τα πράγματα όλο και πιο έξυπνα θα έχει ένα ριζικό αντίκτυπο σε σχεδόν οτιδήποτε κάνουμε. Ο Κέλι εξετάζει τρεις τάσεις στην τεχνητή νοημοσύνη που πρέπει όλοι να κατανοήσουμε για να την αποδεχτούμε και να καθοδηγήσουμε την ανάπτυξή της. «Το πιο δημοφιλές προϊόν τεχνητής νοημοσύνης σε 20 χρόνια από τώρα, που όλοι θα χρησιμοποιούν, δεν έχει εφευρεθεί ακόμα», λέει ο Κέλι. «Αυτό σημαίνει ότι δεν έχετε αργήσει».
- Digital visionary
There may be no one better to contemplate the meaning of cultural change than Kevin Kelly, whose life story reads like a treatise on the value and impacts of technology. Full bio

Double-click the English transcript below to play the video.

00:14
I'm going to talk a little bitκομμάτι
about where technology'sτεχνολογίας going.
0
2966
3817
Θα πω δυο λόγια σχετικά
με το πού πηγαίνει η τεχνολογία.
00:19
And oftenσυχνά technologyτεχνολογία comesέρχεται to us,
1
7509
2671
Συχνά η τεχνολογία έρχεται σε εμάς,
00:22
we're surprisedέκπληκτος by what it bringsφέρνει.
2
10566
1865
και μας εκπλήσσει με αυτά που φέρνει.
00:24
But there's actuallyπράγματι
a largeμεγάλο aspectάποψη of technologyτεχνολογία
3
12455
3683
Αλλά ένα μεγάλο μέρος της τεχνολογίας
00:28
that's much more predictableαναμενόμενος,
4
16162
1802
είναι πολύ πιο προβλέψιμο
00:29
and that's because technologicalτεχνολογικός systemsσυστήματα
of all sortsείδος have leaningsκλίσεις,
5
17988
4088
διότι κάθε είδους
τεχνολογικό σύστημα έχει κλίσεις,
00:34
they have urgenciesεπείγοντα θέματα,
6
22100
1175
έχει ανάγκες,
00:35
they have tendenciesτάσεις.
7
23299
1561
έχει τάσεις.
00:36
And those tendenciesτάσεις are derivedσυμπληρωματικός
from the very natureφύση of the physicsη φυσικη,
8
24884
4932
Κι αυτές οι τάσεις προέρχονται
από τη φύση της φυσικής,
00:41
chemistryχημεία of wiresκαλώδια
and switchesδιακόπτες and electronsηλεκτρόνια,
9
29840
3150
της χημείας, των καλωδίων,
των διακοπτών και των ηλεκτρονίων,
00:45
and they will make reoccurringεπαναλαμβανόμενο
patternsσχέδια again and again.
10
33659
3602
και φτιάχνουν επαναλαμβανόμενα
μοτίβα ξανά και ξανά.
00:49
And so those patternsσχέδια produceπαράγω
these tendenciesτάσεις, these leaningsκλίσεις.
11
37745
4874
Κι έτσι, αυτά τα μοτίβα παράγουν
αυτές τις τάσεις, αυτές τις κλίσεις.
00:54
You can almostσχεδόν think of it
as sortείδος of like gravityβαρύτητα.
12
42643
2831
Σκεφτείτε το σαν τη βαρύτητα.
00:57
ImagineΦανταστείτε raindropsσταγόνες βροχής fallingπτώση into a valleyκοιλάδα.
13
45498
2319
Φανταστείτε σταγόνες βροχής
να πέφτουν σε μια κοιλάδα.
00:59
The actualπραγματικός pathμονοπάτι of a raindropσταγόνα βροχής
as it goesπηγαίνει down the valleyκοιλάδα
14
47841
3088
Η πορεία της σταγόνας
καθώς κατεβαίνει στην κοιλάδα
01:02
is unpredictableαπρόβλεπτος.
15
50953
1169
είναι απρόβλεπτη.
01:04
We cannotδεν μπορώ see where it's going,
16
52651
1518
Δεν μπορούμε να δούμε πού πάει,
01:06
but the generalγενικός directionκατεύθυνση
is very inevitableαναπόφευκτος:
17
54193
2277
αλλά η γενική της κατεύθυνση
είναι αναπόφευκτη:
01:08
it's downwardπρος τα κάτω.
18
56494
1234
είναι καθοδική.
01:10
And so these baked-inψητά, σε
tendenciesτάσεις and urgenciesεπείγοντα θέματα
19
58377
4572
Κι έτσι αυτές οι ενσωματωμένες
τάσεις και ανάγκες
01:14
in technologicalτεχνολογικός systemsσυστήματα
20
62973
1476
στα τεχνολογικά συστήματα
01:17
give us a senseέννοια of where things
are going at the largeμεγάλο formμορφή.
21
65051
3609
μας δίνουν την αίσθηση του πού πηγαίνουν
τα πράγματα σε μια ευρύτερη κλίμακα.
01:21
So in a largeμεγάλο senseέννοια,
22
69149
1401
Έτσι σε μια ευρύτερη έννοια,
01:22
I would say that telephonesτηλεφώνων
were inevitableαναπόφευκτος,
23
70574
3361
θα έλεγα ότι τα τηλέφωνα
ήταν αναπόφευκτα,
01:27
but the iPhoneiPhone was not.
24
75005
1342
αλλά τα iPhone δεν ήταν.
01:29
The InternetΣτο διαδίκτυο was inevitableαναπόφευκτος,
25
77094
1478
Το Διαδίκτυο ήταν αναπόφευκτο,
01:31
but TwitterΠειραχτήρι was not.
26
79274
1286
αλλά το Twitter δεν ήταν.
01:33
So we have manyΠολλά ongoingσε εξέλιξη
tendenciesτάσεις right now,
27
81036
3928
Έχουμε πολλές τρέχουσες τάσεις
αυτή τη στιγμή
01:36
and I think one of the chiefαρχηγός amongαναμεταξύ them
28
84988
2720
και πιστεύω ότι η κυριότερη από αυτές
01:39
is this tendencyτάση to make things
smarterεξυπνότερα and smarterεξυπνότερα.
29
87732
3722
είναι η τάση να κάνουμε τα πράγματα
όλο και πιο έξυπνα.
01:44
I call it cognifyingcognifying -- cognificationcognification --
30
92041
2212
Το αποκαλώ «δίνω αντίληψη»,
01:46
alsoεπίσης knownγνωστός as artificialτεχνητός
intelligenceνοημοσύνη, or AIAI.
31
94783
2782
γνωστό και ως τεχνική νοημοσύνη, ή ΤΝ.
01:50
And I think that's going to be one
of the mostπλέον influentialεπιρροή developmentsεξελίξεις
32
98025
3746
Και νομίζω ότι θα γίνει
μια από τις πιο σημαντικές εξελίξεις
01:53
and trendsτάσεις and directionsκατευθύνσεις and drivesδίσκους
in our societyκοινωνία in the nextεπόμενος 20 yearsχρόνια.
33
101795
5575
και τάσεις και κατευθύνσεις και πορείες
στην κοινωνία μας τα επόμενα 20 χρόνια.
02:00
So, of courseσειρά μαθημάτων, it's alreadyήδη here.
34
108021
1985
Φυσικά, είναι ήδη εδώ.
02:02
We alreadyήδη have AIAI,
35
110030
2204
Ήδη έχουμε ΤΝ,
02:04
and oftenσυχνά it worksεργοστάσιο in the backgroundΙστορικό,
36
112258
2398
και συχνά παίζει στο παρασκήνιο,
02:06
in the back officesγραφεία of hospitalsνοσοκομεία,
37
114680
1586
στα πίσω γραφεία νοσοκομείων,
02:08
where it's used to diagnoseδιαγιγνώσκω X-raysΑκτίνες χ
better than a humanο άνθρωπος doctorγιατρός.
38
116290
4686
όπου χρησιμοποιείται για να διαγνώσει
ακτινογραφίες καλύτερα από τους γιατρούς.
02:13
It's in legalνομικός officesγραφεία,
39
121000
1726
Είναι σε νομικά γραφεία.
02:14
where it's used to go
throughδιά μέσου legalνομικός evidenceαπόδειξη
40
122750
2368
όπου χρησιμοποιείται
για να ψάξει αποδείξεις
02:17
better than a humanο άνθρωπος paralawyerparalawyer.
41
125142
1855
καλύτερα από έναν νομικό βοηθό.
02:19
It's used to flyπετώ the planeεπίπεδο
that you cameήρθε here with.
42
127506
3656
Χρησιμοποιείται για να πετάξει
το αεροπλάνο με το οποίο ήρθατε εδώ.
02:24
HumanΑνθρώπινη pilotsπιλότοι only flewπέταξε it
sevenεπτά to eightοκτώ minutesλεπτά,
43
132165
2381
Οι πιλότοι το οδήγησαν
εφτά με οκτώ λεπτά,
02:26
the restυπόλοιπο of the time the AIAI was drivingοδήγηση.
44
134570
1953
την υπόλοιπη ώρα οδηγούσε η ΤΝ.
02:28
And of courseσειρά μαθημάτων, in NetflixNetflix and AmazonAmazon,
45
136547
2173
Και φυσικά, στο Netflix και στο Amazon
02:30
it's in the backgroundΙστορικό,
makingκατασκευή those recommendationsσυστάσεις.
46
138744
2530
βρίσκεται στο παρασκήνιο,
κάνοντάς σας προτάσεις.
02:33
That's what we have todayσήμερα.
47
141298
1261
Αυτό έχουμε σήμερα.
02:34
And we have an exampleπαράδειγμα, of courseσειρά μαθημάτων,
in a more front-facingμπροστινή aspectάποψη of it,
48
142583
4801
Κι έχουμε ένα παράδειγμα, φυσικά,
σε κάτι πιο προφανές,
02:39
with the winνίκη of the AlphaGoAlphaGo, who beatΡυθμός
the world'sτου κόσμου greatestμεγαλύτερη Go championπρωταθλητής.
49
147408
6629
με τη νίκη του AlphaGo, που νίκησε
τον παγκόσμιο πρωταθλητή στο Go.
02:46
But it's more than that.
50
154478
4053
Αλλά δεν είναι μόνο αυτό.
02:50
If you playπαίζω a videoβίντεο gameπαιχνίδι,
you're playingπαιχνίδι againstκατά an AIAI.
51
158555
2642
Όταν παίζετε βιντεοπαιχνίδια,
παίζετε εναντίον ΤΝ.
02:53
But recentlyπρόσφατα, GoogleGoogle taughtδιδακτός theirδικα τους AIAI
52
161221
4538
Αλλά πρόσφατα, η Google δίδαξε την ΤΝ της
02:57
to actuallyπράγματι learnμαθαίνω how to playπαίζω videoβίντεο gamesΠαιχνίδια.
53
165783
2412
να μαθαίνει πώς να παίζει βιντεοπαιχνίδια.
03:00
Again, teachingδιδασκαλία videoβίντεο gamesΠαιχνίδια
was alreadyήδη doneΈγινε,
54
168686
2709
Και πάλι, η διδασκαλία
βιντεοπαιχνιδιών είχε ήδη γίνει,
03:03
but learningμάθηση how to playπαίζω
a videoβίντεο gameπαιχνίδι is anotherαλλο stepβήμα.
55
171419
3897
αλλά η εκμάθηση του πώς να παίζεις
ένα βιντεοπαιχνίδι είναι ένα άλλο βήμα.
03:07
That's artificialτεχνητός smartnessεξυπνάδα.
56
175340
1678
Αυτό είναι τεχνητή ευφυΐα.
03:10
What we're doing is takingλήψη
this artificialτεχνητός smartnessεξυπνάδα
57
178571
4522
Αυτό που κάνουμε είναι να πάρουμε
αυτή την τεχνητή ευφυΐα
03:15
and we're makingκατασκευή it smarterεξυπνότερα and smarterεξυπνότερα.
58
183117
2423
και να την κάνουμε όλο και πιο έξυπνη.
03:18
There are threeτρία aspectsπτυχές
to this generalγενικός trendτάση
59
186710
3895
Υπάρχουν τρεις πλευρές
σε αυτή τη γενική τάση
03:22
that I think are underappreciatedunderappreciated;
60
190629
1689
και νομίζω ότι είναι υποτιμημένες.
03:24
I think we would understandκαταλαβαίνουν
AIAI a lot better
61
192342
2277
Νομίζω ότι θα καταλαβαίναμε
την ΤΝ πολύ καλύτερα,
03:26
if we understoodκατανοητή these threeτρία things.
62
194643
2301
αν καταλαβαίναμε αυτά τα τρία πράγματα.
03:28
I think these things alsoεπίσης would
help us embraceεναγκαλισμός AIAI,
63
196968
3283
Νομίζω ότι αυτά τα πράγματα
θα μας βοηθούσαν να αποδεχτούμε την ΤΝ,
03:32
because it's only by embracingαγκαλιάζοντας it
that we actuallyπράγματι can steerβόδι it.
64
200275
3008
γιατί μόνο αν την αποδεχτούμε
θα μπορέσουμε να την κατευθύνουμε.
03:35
We can actuallyπράγματι steerβόδι the specificsιδιαιτερότητες
by embracingαγκαλιάζοντας the largerμεγαλύτερος trendτάση.
65
203887
3157
Μπορούμε να κατευθύνουμε τις λεπτομέρειες,
αποδεχόμενοι την ευρύτερη τάση.
03:39
So let me talk about
those threeτρία differentδιαφορετικός aspectsπτυχές.
66
207467
2979
Θα μιλήσω, λοιπόν, για αυτές
τις τρεις διαφορετικές διαστάσεις.
03:42
The first one is: our ownτα δικά intelligenceνοημοσύνη
has a very poorΦτωχός understandingκατανόηση
67
210470
3673
Η πρώτη είναι: η δική μας νοημοσύνη
έχει περιορισμένη αντίληψη
03:46
of what intelligenceνοημοσύνη is.
68
214167
1490
του τι είναι η νοημοσύνη.
03:48
We tendτείνω to think of intelligenceνοημοσύνη
as a singleμονόκλινο dimensionδιάσταση,
69
216110
3653
Έχουμε την τάση να σκεφτόμαστε
τη νοημοσύνη σαν κάτι μονοδιάστατο,
03:51
that it's kindείδος of like a noteΣημείωση
that getsπαίρνει louderπιο δυνατά and louderπιο δυνατά.
70
219787
2750
σαν να είναι μια νότα
που δυναμώνει όλο και περισσότερο.
03:54
It startsξεκινά like with IQIQ measurementμέτρηση.
71
222561
2607
Όπως με τις μετρήσεις ευφυΐας.
03:57
It startsξεκινά with maybe a simpleαπλός
lowχαμηλός IQIQ in a ratαρουραίος or mouseποντίκι,
72
225192
4092
Ξεκινάει με ένα απλό, χαμηλό IQ
σε έναν αρουραίο ή ένα ποντίκι,
και ίσως υπάρχει
κάτι περισσότερο σε ένα χιμπατζή,
04:01
and maybe there's more in a chimpanzeeχιμπατζής,
73
229308
2134
και μετά, ίσως περισσότερο
σε ένα ανόητο άτομο,
04:03
and then maybe there's more
in a stupidηλίθιος personπρόσωπο,
74
231887
2191
04:06
and then maybe an averageμέση τιμή
personπρόσωπο like myselfεγώ ο ίδιος,
75
234102
2096
και μετά, ίσως σ' έναν
μέσο άνθρωπο σαν εμένα
04:08
and then maybe a geniusιδιοφυία.
76
236222
1290
και μετά, ίσως σε μια ιδιοφυΐα.
04:09
And this singleμονόκλινο IQIQ intelligenceνοημοσύνη
is gettingνα πάρει greaterμεγαλύτερη and greaterμεγαλύτερη.
77
237536
4433
Κι αυτό το IQ γίνεται όλο και πιο υψηλό.
Αυτό είναι τελείως λάθος.
04:14
That's completelyεντελώς wrongλανθασμένος.
78
242516
1151
04:15
That's not what intelligenceνοημοσύνη is --
not what humanο άνθρωπος intelligenceνοημοσύνη is, anywayΤΕΛΟΣ παντων.
79
243691
3608
Η νοημοσύνη δεν είναι αυτό,
τουλάχιστον όχι η ανθρώπινη νοημοσύνη.
04:19
It's much more like a symphonyΣυμφωνική
of differentδιαφορετικός notesσημειώσεις,
80
247673
4506
Μοιάζει περισσότερο με μια συμφωνία
με πολλές διαφορετικές νότες
04:24
and eachκαθε of these notesσημειώσεις is playedέπαιξε
on a differentδιαφορετικός instrumentόργανο of cognitionγνωστική λειτουργία.
81
252203
3609
και κάθε νότα παίζεται
σε ένα διαφορετικό όργανο γνώσης.
04:27
There are manyΠολλά typesτύπους
of intelligencesνοημοσύνη in our ownτα δικά mindsμυαλά.
82
255836
3701
Υπάρχουν πολλά είδη νοημοσύνης
μέσα στο μυαλό μας.
04:31
We have deductiveΕπαγωγική reasoningαιτιολογία,
83
259561
3048
Έχουμε συμπερασματική συλλογιστική,
04:34
we have emotionalΣυναισθηματική intelligenceνοημοσύνη,
84
262633
2221
έχουμε συναισθηματική ευφυΐα,
04:36
we have spatialχωρική intelligenceνοημοσύνη;
85
264878
1393
έχουμε χωρική ευφυΐα,
04:38
we have maybe 100 differentδιαφορετικός typesτύπους
that are all groupedομαδοποιήθηκαν togetherμαζί,
86
266295
4021
έχουμε περίπου 100 διαφορετικούς τύπους
που ανήκουν στην ίδια ομάδα
04:42
and they varyποικίλλω in differentδιαφορετικός strengthsδυνατά σημεία
with differentδιαφορετικός people.
87
270340
3905
και ποικίλουν σε διαφορετικές δυνάμεις
με διαφορετικά άτομα.
04:46
And of courseσειρά μαθημάτων, if we go to animalsτων ζώων,
they alsoεπίσης have anotherαλλο basketκαλάθι --
88
274269
4526
Και φυσικά, όσον αφορά τα ζώα,
κι αυτά έχουν ένα άλλο καλάθι,
04:50
anotherαλλο symphonyΣυμφωνική of differentδιαφορετικός
kindsείδη of intelligencesνοημοσύνη,
89
278819
2541
μια άλλη συμφωνία
διαφορετικών ειδών ευφυΐας,
04:53
and sometimesωρες ωρες those sameίδιο instrumentsόργανα
are the sameίδιο that we have.
90
281384
3566
και μερικές φορές αυτά τα ίδια όργανα
είναι ίδια με τα δικά μας.
04:56
They can think in the sameίδιο way,
but they mayενδέχεται have a differentδιαφορετικός arrangementρύθμιση,
91
284974
3561
Μπορούν να σκεφτούν με τον ίδιο τρόπο,
αλλά να έχουν διαφορετική οργάνωση,
και σε κάποιες περιπτώσεις μπορεί
να είναι υψηλότερη από των ανθρώπων,
05:00
and maybe they're higherπιο ψηλά
in some casesπεριπτώσεις than humansτου ανθρώπου,
92
288559
2467
05:03
like long-termμακροπρόθεσμα memoryμνήμη in a squirrelσκίουρος
is actuallyπράγματι phenomenalφαινομενικός,
93
291050
2837
όπως η μνήμη του σκίουρου
που είναι εξαιρετική,
05:05
so it can rememberθυμάμαι
where it buriedθάβονται its nutsΞΗΡΟΙ ΚΑΡΠΟΙ.
94
293911
2287
για να θυμάται που έκρυψε τα καρύδια του.
Αλλά μπορεί να είναι και χαμηλότερη.
05:08
But in other casesπεριπτώσεις they mayενδέχεται be lowerπιο χαμηλα.
95
296222
1987
Όταν πάμε να φτιάξουμε μηχανές,
05:10
When we go to make machinesμηχανές,
96
298233
2730
05:12
we're going to engineerμηχανικός
them in the sameίδιο way,
97
300987
2196
πάμε να τις κατασκευάσουμε
με τον ίδιο τρόπο,
05:15
where we'llΚαλά make some of those typesτύπους
of smartnessεξυπνάδα much greaterμεγαλύτερη than oursΔικός μας,
98
303207
5010
κάνοντας κάποιους από αυτούς τους τύπους
ευφυΐας καλύτερους από τους δικούς μας.
05:20
and manyΠολλά of them won'tσυνηθισμένος be
anywhereοπουδήποτε nearκοντά oursΔικός μας,
99
308241
2571
Και κάποιοι από αυτούς
δεν θα πλησιάζουν καν τη δική μας,
05:22
because they're not neededαπαιτείται.
100
310836
1544
γιατί δεν είναι αναγκαίο.
05:24
So we're going to take these things,
101
312404
2203
Οπότε θα πάρουμε αυτά τα πράγματα,
05:26
these artificialτεχνητός clustersσυστοιχίες,
102
314631
2081
αυτές τις τεχνητές ομάδες
05:28
and we'llΚαλά be addingπροσθέτωντας more varietiesποικιλιών
of artificialτεχνητός cognitionγνωστική λειτουργία to our AIsAIs.
103
316736
5362
και θα προσθέσουμε περισσότερα είδη
τεχνητής γνώσης σε όλες τις ΤΝ.
05:34
We're going to make them
very, very specificειδικός.
104
322507
4071
Θα τις κάνουμε πολύ πολύ συγκεκριμένες.
05:38
So your calculatorαριθμομηχανή is smarterεξυπνότερα
than you are in arithmeticαριθμητική alreadyήδη;
105
326602
6542
Το κομπιουτεράκι σας είναι ήδη
πιο έξυπνο από εσάς στην αριθμητική.
05:45
your GPSGPS is smarterεξυπνότερα
than you are in spatialχωρική navigationπλοήγηση;
106
333168
3697
Το GPS σας είναι πιο έξυπνο
από εσάς στην πλοήγηση.
05:49
GoogleGoogle, BingBing, are smarterεξυπνότερα
than you are in long-termμακροπρόθεσμα memoryμνήμη.
107
337337
4258
Το Google, το Bing είναι πιο έξυπνα
από εσάς στη μακροπρόθεσμη μνήμη.
05:54
And we're going to take, again,
these kindsείδη of differentδιαφορετικός typesτύπους of thinkingσκέψη
108
342339
4530
Και θα πάρουμε αυτούς
τους διαφορετικούς τρόπους σκέψης
05:58
and we'llΚαλά put them into, like, a carαυτοκίνητο.
109
346893
1933
και θα τους βάλουμε, π.χ. σε ένα αμάξι.
06:00
The reasonλόγος why we want to put them
in a carαυτοκίνητο so the carαυτοκίνητο drivesδίσκους,
110
348850
3057
Ο λόγος που θέλουμε να τους βάλουμε
σε ένα αμάξι για να οδηγήσει,
06:03
is because it's not drivingοδήγηση like a humanο άνθρωπος.
111
351931
2302
είναι επειδή δεν οδηγεί σαν άνθρωπος.
06:06
It's not thinkingσκέψη like us.
112
354257
1396
Δεν σκέφτεται σαν κι έμας.
06:07
That's the wholeολόκληρος featureχαρακτηριστικό of it.
113
355677
1920
Αυτό είναι το θέμα.
06:09
It's not beingνα εισαι distractedαποσπάται,
114
357621
1535
Δεν διασπάται η προσοχή του,
06:11
it's not worryingανησυχητικό about whetherκατά πόσο
it left the stoveκουζίνα on,
115
359180
2754
δεν ανησυχεί για το αν άφησε
το μάτι της κουζίνας ανοιχτό,
06:13
or whetherκατά πόσο it should have
majoredειδικεύτηκε in financeχρηματοδότηση.
116
361958
2138
ή αν έπρεπε να είχε σπουδάσει οικονομικά.
06:16
It's just drivingοδήγηση.
117
364120
1153
Απλώς οδηγεί.
06:17
(LaughterΤο γέλιο)
118
365297
1142
(Γέλια)
06:18
Just drivingοδήγηση, OK?
119
366463
1841
Απλώς οδηγεί, εντάξει;
06:20
And we actuallyπράγματι mightθα μπορούσε even
come to advertiseΔιαφημιστείτε these
120
368328
2937
Μπορεί και να τα διαφημίσουμε
06:23
as "consciousness-freeχωρίς συνείδηση."
121
371289
1545
κι ως «χωρίς συνείδηση».
06:24
They're withoutχωρίς consciousnessσυνείδηση,
122
372858
1774
Δεν έχουν συνείδηση,
06:26
they're not concernedενδιαφερόμενος about those things,
123
374656
2104
δεν τα απασχολούν τέτοια πράγματα,
06:28
they're not distractedαποσπάται.
124
376784
1156
δεν αποσπάται η προσοχή τους.
06:29
So in generalγενικός, what we're tryingπροσπαθεί to do
125
377964
2966
Γενικά, αυτό που προσπαθούμε να κάνουμε
06:32
is make as manyΠολλά differentδιαφορετικός
typesτύπους of thinkingσκέψη as we can.
126
380954
4500
είναι να φτιάξουμε όσους διαφορετικούς
τύπους σκέψης μπορούμε.
06:37
We're going to populateσυμπλήρωση the spaceχώρος
127
385804
2083
Θα γεμίσουμε τον χώρο
06:39
of all the differentδιαφορετικός possibleδυνατόν typesτύπους,
or speciesείδος, of thinkingσκέψη.
128
387911
4159
με όλους τους πιθανούς τρόπους σκέψης.
06:44
And there actuallyπράγματι mayενδέχεται be some problemsπροβλήματα
129
392094
2068
Και μπορεί να υπάρξουν κάποια προβλήματα
06:46
that are so difficultδύσκολος
in businessεπιχείρηση and scienceεπιστήμη
130
394186
2800
που είναι τόσο δύσκολα
στον επιχειρηματικό ή επιστημονικό τομέα
06:49
that our ownτα δικά typeτύπος of humanο άνθρωπος thinkingσκέψη
mayενδέχεται not be ableικανός to solveλύσει them aloneμόνος.
131
397010
4042
που ο ανθρώπινος τρόπος σκέψης μας
να μην μπορεί να τα λύσει.
06:53
We mayενδέχεται need a two-stepδύο βημάτων programπρόγραμμα,
132
401076
1992
Μπορεί να χρειαστούμε
ένα πρόγραμμα δύο βημάτων
06:55
whichοι οποίες is to inventεφευρίσκω newνέος kindsείδη of thinkingσκέψη
133
403092
4203
που θα είναι η εφεύρεση νέων ειδών σκέψης,
06:59
that we can work alongsideπαράλληλα με of to solveλύσει
these really largeμεγάλο problemsπροβλήματα,
134
407692
3734
με τα οποία θα μπορούμε να δουλέψουμε
για να λύσουμε αυτά τα μεγάλα προβλήματα,
07:03
say, like darkσκοτάδι energyενέργεια or quantumποσοστό gravityβαρύτητα.
135
411450
2918
όπως η σκοτεινή ενέργεια
ή η κβαντική βαρύτητα.
07:08
What we're doing
is makingκατασκευή alienεξωγήινο intelligencesνοημοσύνη.
136
416496
2646
Αυτό που κάνουμε είναι να δημιουργούμε
εξωγήινες νοημοσύνες.
07:11
You mightθα μπορούσε even think of this
as, sortείδος of, artificialτεχνητός aliensεξωγήινοι
137
419166
4069
Μπορείτε να το θεωρήσετε
και κάτι σαν τεχνητούς εξωγήινους,
07:15
in some sensesαισθήσεις.
138
423259
1207
κατά μία έννοια.
07:16
And they're going to help
us think differentδιαφορετικός,
139
424490
2300
Και θα μας βοηθήσουν
να σκεφτούμε διαφορετικά
07:18
because thinkingσκέψη differentδιαφορετικός
is the engineκινητήρας of creationδημιουργία
140
426814
3632
καθώς το να σκεφτόμαστε διαφορετικά
είναι η μηχανή της δημιουργίας
07:22
and wealthπλούτος and newνέος economyοικονομία.
141
430470
1867
και του πλούτου
και της καινούργιας οικονομίας.
07:25
The secondδεύτερος aspectάποψη of this
is that we are going to use AIAI
142
433835
4923
Η δεύτερη πλευρά αυτού του θέματος
είναι ότι θα χρησιμοποιήσουμε την ΤΝ
07:30
to basicallyβασικα make a secondδεύτερος
IndustrialΒιομηχανική RevolutionΕπανάσταση.
143
438782
2950
για να κάνουμε, ουσιαστικά,
μια δεύτερη Βιομηχανική Επανάσταση.
07:34
The first IndustrialΒιομηχανική RevolutionΕπανάσταση
was basedμε βάση on the factγεγονός
144
442135
2773
Η πρώτη Βιομηχανική Επανάσταση
βασίστηκε στο γεγονός
07:36
that we inventedεφευρέθηκε something
I would call artificialτεχνητός powerεξουσία.
145
444932
3462
ότι δημιουργήσαμε κάτι
που θα αποκαλούσα τεχνητή δύναμη.
07:40
PreviousΠροηγούμενη to that,
146
448879
1150
Πριν από αυτό,
07:42
duringστη διάρκεια the AgriculturalΓεωργικών RevolutionΕπανάσταση,
147
450053
2034
κατά τη διάρκεια
της Αγροτικής Επανάστασης,
07:44
everything that was madeέκανε
had to be madeέκανε with humanο άνθρωπος muscleμυς
148
452111
3702
ό,τι φτιαχνόταν έπρεπε
να γίνει από ανθρώπινα χέρια
07:47
or animalζώο powerεξουσία.
149
455837
1307
ή τη δύναμη των ζώων.
Αυτός ήταν ο μόνος τρόπος
για να γίνει το οτιδήποτε.
07:49
That was the only way
to get anything doneΈγινε.
150
457565
2063
07:51
The great innovationκαινοτομία duringστη διάρκεια
the IndustrialΒιομηχανική RevolutionΕπανάσταση was,
151
459652
2945
Η μεγάλη καινοτομία κατά τη διάρκεια
της Βιομηχανικής Επανάστασης
07:54
we harnessedαξιοποιηθεί steamατμός powerεξουσία, fossilαπολίθωμα fuelsκαύσιμα,
152
462621
3109
ήταν ότι αξιοποιήσαμε τη δύναμη
του ατμού, των ορυκτών καυσίμων,
07:57
to make this artificialτεχνητός powerεξουσία
that we could use
153
465754
3856
για να φτιάξουμε αυτή την τεχνητή ενέργεια
που θα χρησιμοποιούσαμε
για να κάνουμε ό,τι θέλαμε να κάνουμε.
08:01
to do anything we wanted to do.
154
469634
1669
08:03
So todayσήμερα when you driveοδηγώ down the highwayΑυτοκινητόδρομος,
155
471327
2772
Έτσι σήμερα όταν οδηγείτε
σε έναν αυτοκινητόδρομο,
08:06
you are, with a flickκτύπημα of the switchδιακόπτης,
commandingδιοικούσε 250 horsesάλογα --
156
474571
4525
διαχειρίζεστε 250 άλογα,
με το πάτημα ενός κουμπιού
08:11
250 horsepowerιπποδύναμη --
157
479120
1572
-ιπποδύναμη 250 ίππων-
08:12
whichοι οποίες we can use to buildχτίζω skyscrapersουρανοξύστες,
to buildχτίζω citiesπόλεις, to buildχτίζω roadsδρόμους,
158
480716
4692
που θα μπορούσαμε να χρησιμοποιήσουμε για
να χτίσουμε ουρανοξύστες, πόλεις, δρόμους,
08:17
to make factoriesεργοστάσια that would churnκαρδάρα out
linesγραμμές of chairsκαρέκλες or refrigeratorsψυγεία
159
485432
5789
εργοστάσια που θα παρήγαγαν
καρέκλες ή ψυγεία
08:23
way beyondπέρα our ownτα δικά powerεξουσία.
160
491245
1654
πέρα των δυνατοτήτων μας.
08:24
And that artificialτεχνητός powerεξουσία can alsoεπίσης
be distributedδιανέμονται on wiresκαλώδια on a gridπλέγμα
161
492923
6111
Κι αυτή η τεχνητή δύναμη μπορεί
να διανεμηθεί και σε καλώδια σε ένα δίκτυο
08:31
to everyκάθε home, factoryεργοστάσιο, farmsteadαγροικία,
162
499058
3199
για κάθε σπίτι, εργοστάσιο ή αγρόκτημα,
08:34
and anybodyοποιοσδήποτε could buyαγορά
that artificialτεχνητός powerεξουσία,
163
502281
4191
και ο καθένας θα μπορούσε
να αγοράσει αυτή την τεχνητή δύναμη,
08:38
just by pluggingσυνδέοντας something in.
164
506496
1472
απλά βάζοντας κάτι στην πρίζα.
08:39
So this was a sourceπηγή
of innovationκαινοτομία as well,
165
507992
2439
Έτσι κι αυτό ήταν μια πηγή καινοτομίας
08:42
because a farmerαγρότης could take
a manualεγχειρίδιο handχέρι pumpαντλία,
166
510455
3418
γιατί ο κάθε αγρότης θα μπορούσε
να πάρει μια χειροκίνητη αντλία
και θα μπορούσε να προσθέσει
αυτή την τεχνητή δύναμη, τον ηλεκτρισμό,
08:45
and they could addπροσθέτω this artificialτεχνητός
powerεξουσία, this electricityηλεκτρική ενέργεια,
167
513897
2916
08:48
and he'dΕίχε have an electricηλεκτρικός pumpαντλία.
168
516837
1497
και θα είχε μια ηλεκτρική αντλία.
08:50
And you multiplyπολλαπλασιάζω that by thousandsχιλιάδες
or tensδεκάδες of thousandsχιλιάδες of timesφορές,
169
518358
3318
Κι αν το πολλαπλασιάσετε
εκατοντάδες ή δεκάδες χιλιάδες φορές,
08:53
and that formulaτύπος was what broughtέφερε us
the IndustrialΒιομηχανική RevolutionΕπανάσταση.
170
521700
3159
θα έχετε τη φόρμουλα που έφερε
τη Βιομηχανική Επανάσταση.
08:56
All the things that we see,
all this progressπρόοδος that we now enjoyαπολαμβάνω,
171
524883
3585
Όλα τα πράγματα που βλέπουμε,
όλη αυτή η πρόοδος που απολαμβάνουμε,
09:00
has come from the factγεγονός
that we'veέχουμε doneΈγινε that.
172
528492
2063
προήλθε από το γεγονός
ότι έγιναν όλα αυτά.
09:02
We're going to do
the sameίδιο thing now with AIAI.
173
530579
2348
Τώρα θα κάνουμε το ίδιο πράγμα με την ΤΝ.
09:04
We're going to distributeδιανέμω that on a gridπλέγμα,
174
532951
2075
Θα τη διανείμουμε σε ένα δίκτυο
09:07
and now you can take that electricηλεκτρικός pumpαντλία.
175
535050
2374
και θα μπορείτε να πάρετε
αυτή την ηλεκτρική αντλία,
09:09
You can addπροσθέτω some artificialτεχνητός intelligenceνοημοσύνη,
176
537448
2968
θα μπορείτε να της προσθέσετε
τεχνητή νοημοσύνη
09:12
and now you have a smartέξυπνος pumpαντλία.
177
540440
1481
και θα έχετε μια έξυπνη αντλία.
09:13
And that, multipliedπολλαπλασιασμένο by a millionεκατομμύριο timesφορές,
178
541945
1928
Αν το πολλαπλασιάσετε αυτό
εκατομμύρια φορές
09:15
is going to be this secondδεύτερος
IndustrialΒιομηχανική RevolutionΕπανάσταση.
179
543897
2363
θα γίνει η δεύτερη Βιομηχανική Επανάσταση.
09:18
So now the carαυτοκίνητο is going down the highwayΑυτοκινητόδρομος,
180
546284
2382
Και το αμάξι στον αυτοκινητόδρομο
09:20
it's 250 horsepowerιπποδύναμη,
but in additionπρόσθεση, it's 250 mindsμυαλά.
181
548690
4294
είναι 250 ίππων, αλλά και 250 μυαλών.
09:25
That's the auto-drivenAuto-driven carαυτοκίνητο.
182
553008
1769
Είναι το αυτοοδηγούμενο αυτοκίνητο.
09:26
It's like a newνέος commodityεμπόρευμα;
183
554801
1389
Είναι σαν μια νέα άνεση,
09:28
it's a newνέος utilityχρησιμότητα.
184
556214
1303
ένα νέο είδος πρακτικότητας.
09:29
The AIAI is going to flowροή
acrossαπέναντι the gridπλέγμα -- the cloudσύννεφο --
185
557541
3041
Η ΤΝ θα ξεχυθεί στο δίκτυο, στο «σύννεφο»,
09:32
in the sameίδιο way electricityηλεκτρική ενέργεια did.
186
560606
1567
με τον ίδιο τρόπο που συνέβη
με τον ηλεκτρισμό.
09:34
So everything that we had electrifiedηλεκτρισμένη,
187
562197
2380
Έτσι, ό,τι έχουμε ηλεκτροδοτήσει,
09:36
we're now going to cognifycognify.
188
564601
1723
τώρα θα του δώσουμε αντίληψη.
09:38
And I oweοφείλω it to JeffJeff, then,
189
566693
1385
Και θα πρότεινα ότι
09:40
that the formulaτύπος
for the nextεπόμενος 10,000 start-upsνεοσύστατες επιχειρήσεις
190
568102
3732
η φόρμουλα για τις επόμενες
10.000 νεοφυείς επιχειρήσεις
09:43
is very, very simpleαπλός,
191
571858
1162
είναι πολύ, πολύ απλή,
09:45
whichοι οποίες is to take x and addπροσθέτω AIAI.
192
573044
3167
παίρνουμε το χ και προσθέτουμε ΤΝ.
09:49
That is the formulaτύπος,
that's what we're going to be doing.
193
577100
2812
Αυτή είναι η φόρμουλα, αυτό θα κάνουμε.
09:51
And that is the way
in whichοι οποίες we're going to make
194
579936
3306
Και με αυτόν τον τρόπο θα κάνουμε
09:55
this secondδεύτερος IndustrialΒιομηχανική RevolutionΕπανάσταση.
195
583266
1858
τη δεύτερη Βιομηχανική Επανάσταση.
Και, παρεμπιπτόντως,
αυτή τη στιγμή, αυτό το λεπτό,
09:57
And by the way -- right now, this minuteλεπτό,
196
585148
2154
09:59
you can logκούτσουρο on to GoogleGoogle
197
587326
1169
μπορείτε να μπείτε στο Google
10:00
and you can purchaseαγορά
AIAI for sixέξι centsσεντ, 100 hitsχτυπήματα.
198
588519
3882
και να αγοράσετε ΤΝ για 6 σεντ,
100 χτυπήματα.
10:04
That's availableδιαθέσιμος right now.
199
592758
1604
Είναι διαθέσιμη αυτή τη στιγμή.
10:06
So the thirdτρίτος aspectάποψη of this
200
594386
2286
Η τρίτη πλευρά του θέματος
10:09
is that when we take this AIAI
and embodyενσωματώνω it,
201
597315
2678
είναι ότι όταν παίρνουμε την ΤΝ
και την ενσωματώνουμε,
10:12
we get robotsρομπότ.
202
600017
1173
φτιάχνουμε ρομπότ.
10:13
And robotsρομπότ are going to be botsbots,
203
601214
1703
Και τα ρομπότ θα γίνουν μποτ,
10:14
they're going to be doing manyΠολλά
of the tasksκαθήκοντα that we have alreadyήδη doneΈγινε.
204
602941
3328
θα κάνουν πολλές εργασίες
που κάνουμε ήδη.
Μια δουλειά είναι διάφορες εργασίες,
10:20
A jobδουλειά is just a bunchδέσμη of tasksκαθήκοντα,
205
608357
1528
10:21
so they're going to redefineεπαναπροσδιορίστε our jobsθέσεις εργασίας
206
609909
1762
οπότε θα επαναπροσδιορίσουν
τις δουλειές μας
10:23
because they're going to do
some of those tasksκαθήκοντα.
207
611695
2259
γιατί θα κάνουν κάποιες
από αυτές τις εργασίες.
10:25
But they're alsoεπίσης going to curateεφημέριου
wholeολόκληρος newνέος categoriesκατηγορίες,
208
613978
3197
Αλλά θα δημιουργήσουν
και καινούργιες κατηγορίες,
10:29
a wholeολόκληρος newνέος slewγυρίζει of tasksκαθήκοντα
209
617199
2247
μια νέα πληθώρα εργασιών
10:31
that we didn't know
we wanted to do before.
210
619470
2457
που δεν ξέραμε ότι θα θέλαμε να κάνουμε.
10:33
They're going to actuallyπράγματι
engenderπροκαλούσε newνέος kindsείδη of jobsθέσεις εργασίας,
211
621951
3637
Θα δημιουργήσουν νέα είδη δουλειάς,
10:37
newνέος kindsείδη of tasksκαθήκοντα that we want doneΈγινε,
212
625612
2271
νέα είδη εργασίας
που θα θέλουμε να γίνουν
10:39
just as automationαυτοματισμού madeέκανε up
a wholeολόκληρος bunchδέσμη of newνέος things
213
627907
3405
ακριβώς όπως η αυτοματοποίηση
δημιούργησε ένα σωρό νέα πράγματα
10:43
that we didn't know we neededαπαιτείται before,
214
631336
1834
που δεν ξέραμε ότι χρειαζόμασταν πριν
10:45
and now we can't liveζω withoutχωρίς them.
215
633194
1956
και τώρα δεν μπορούμε
να ζήσουμε χωρίς αυτά.
10:47
So they're going to produceπαράγω
even more jobsθέσεις εργασίας than they take away,
216
635174
3956
Οπότε θα δημιουργήσουν ακόμα περισσότερες
δουλειές από αυτές που θα πάρουν
10:51
but it's importantσπουδαίος that a lot of the tasksκαθήκοντα
that we're going to give them
217
639154
3434
αλλά είναι σημαντικό οι περισσότερες
εργασίες που θα τους δώσουμε
10:54
are tasksκαθήκοντα that can be definedορίζεται
in termsόροι of efficiencyαποδοτικότητα or productivityπαραγωγικότητα.
218
642612
4572
να είναι εργασίες που θα σχετίζονται με
την αποδοτικότητα και την παραγωγικότητα.
10:59
If you can specifyΚαθορίστε a taskέργο,
219
647676
1828
Αν προσδιορίσουμε μια εργασία,
11:01
eitherείτε manualεγχειρίδιο or conceptualσχετικός με την σύλληψη ή αντίληψη,
220
649528
2235
είτε χειροκίνητη είτε νοητική,
11:03
that can be specifiedπου καθορίζεται in termsόροι
of efficiencyαποδοτικότητα or productivityπαραγωγικότητα,
221
651787
4780
που μπορεί να προσδιοριστεί ως προς
την αποδοτικότητα και την παραγωγικότητα,
11:08
that goesπηγαίνει to the botsbots.
222
656591
1777
αυτή θα γίνεται από τα μποτ.
11:10
ProductivityΠαραγωγικότητα is for robotsρομπότ.
223
658758
2178
Η παραγωγικότητα είναι για τα ρομπότ.
11:12
What we're really good at
is basicallyβασικα wastingφθείρων time.
224
660960
3070
Αυτό στο οποίο είμαστε καλοί
είναι, ουσιαστικά, το χάσιμο χρόνου.
11:16
(LaughterΤο γέλιο)
225
664054
1028
(Γέλια)
Είμαστε πολύ καλοί σε πράγματα
που είναι μη αποδοτικά.
11:17
We're really good at things
that are inefficientανεπαρκής.
226
665106
2316
11:19
ScienceΕπιστήμη is inherentlyεκ φύσεως inefficientανεπαρκής.
227
667446
3025
Η επιστήμη είναι εγγενώς μή αποδοτική.
11:22
It runsτρέχει on that factγεγονός that you have
one failureαποτυχία after anotherαλλο.
228
670816
2906
Βασίζεται στο ότι
η μία αποτυχία έρχεται μετά την άλλη.
11:25
It runsτρέχει on the factγεγονός that you make testsδοκιμές
and experimentsπειράματα that don't work,
229
673746
3424
Βασίζεται στο ότι κάνουμε
τεστ και πειράματα που δεν πετυχαίνουν,
11:29
otherwiseσε διαφορετική περίπτωση you're not learningμάθηση.
230
677194
1442
αλλιώς δεν μαθαίνουμε.
11:30
It runsτρέχει on the factγεγονός
231
678660
1162
Βασίζεται στο ότι
δεν υπάρχει αρκετή παραγωγικότητα σε αυτή.
11:31
that there is not
a lot of efficiencyαποδοτικότητα in it.
232
679846
2083
11:33
InnovationΚαινοτομία by definitionορισμός is inefficientανεπαρκής,
233
681953
2779
Η πρωτοπορία είναι εξ ορισμού
μη αποδοτική,
11:36
because you make prototypesπρωτότυπα,
234
684756
1391
επειδή φτιάχνεις πρωτότυπα,
11:38
because you try stuffυλικό that failsαποτυγχάνει,
that doesn't work.
235
686171
2707
επειδή δοκιμάζεις πράγματα
που αποτυγχάνουν, που δεν λειτουργούν.
11:40
ExplorationΕξερεύνηση is inherentlyεκ φύσεως inefficiencyαναποτελεσματικότητας.
236
688902
3112
Η εξερεύνηση είναι εγγενώς μή αποδοτική.
11:44
ArtΤέχνη is not efficientαποτελεσματικός.
237
692038
1531
Η τέχνη δεν είναι αποδοτική.
11:45
HumanΑνθρώπινη relationshipsσχέσεις are not efficientαποτελεσματικός.
238
693593
2127
Οι ανθρώπινες σχέσεις
δεν είναι αποδοτικές.
11:47
These are all the kindsείδη of things
we're going to gravitateέλκομαι to,
239
695744
2940
Αυτά είναι όλα τα πράγματα
στα οποία θα επικεντρωθούμε
11:50
because they're not efficientαποτελεσματικός.
240
698708
1475
επειδή δεν είναι αποδοτικά.
11:52
EfficiencyΑποδοτικότητα is for robotsρομπότ.
241
700207
2315
Η αποδοτικότητα είναι για τα ρομπότ.
11:55
We're alsoεπίσης going to learnμαθαίνω
that we're going to work with these AIsAIs
242
703338
4123
Επίσης θα μάθουμε
ότι θα δουλέψουμε με αυτές τις ΤΝ
11:59
because they think differentlyδιαφορετικά than us.
243
707485
1997
επειδή σκέφτονται διαφορετικά από εμάς.
12:02
When DeepΒαθύ BlueΜπλε beatΡυθμός
the world'sτου κόσμου bestκαλύτερος chessσκάκι championπρωταθλητής,
244
710005
4314
Όταν το Deep Blue νίκησε
τον παγκόσμιο πρωταθλητή στο σκάκι,
πολλοί νόμιζαν ότι
αυτό ήταν το τέλος του σκακιού.
12:06
people thought it was the endτέλος of chessσκάκι.
245
714343
1929
12:08
But actuallyπράγματι, it turnsστροφές out that todayσήμερα,
the bestκαλύτερος chessσκάκι championπρωταθλητής in the worldκόσμος
246
716296
4402
Αλλά τελικά σήμερα,
ο παγκόσμιος πρωταθλητής στο σκάκι
12:12
is not an AIAI.
247
720722
1557
δεν είναι μια ΤΝ.
12:14
And it's not a humanο άνθρωπος.
248
722906
1181
Και δεν είναι άνθρωπος.
12:16
It's the teamομάδα of a humanο άνθρωπος and an AIAI.
249
724111
2715
Είναι μια ομάδα ανθρώπων και μιας ΤΝ.
12:18
The bestκαλύτερος medicalιατρικός diagnosticianιατρός ειδικός για διαγνώσεις
is not a doctorγιατρός, it's not an AIAI,
250
726850
4000
Τις καλύτερες διαγνώσεις δεν τις κάνει
ούτε ένας γιατρός ούτε μια ΤΝ,
12:22
it's the teamομάδα.
251
730874
1176
αλλά η ομάδα.
12:24
We're going to be workingεργαζόμενος with these AIsAIs,
252
732074
2149
Θα δουλεύουμε με αυτές τις ΤΝ
12:26
and I think you'llθα το κάνετε be paidεπί πληρωμή in the futureμελλοντικός
253
734247
1995
και νομίζω ότι θα ανταμειφθούμε στο μέλλον
12:28
by how well you work with these botsbots.
254
736266
2391
από το πόσο καλά
δουλεύουμε με αυτά τα μποτ.
12:31
So that's the thirdτρίτος thing,
is that they're differentδιαφορετικός,
255
739026
4257
Το τρίτο είναι ότι είναι διαφορετικά,
12:35
they're utilityχρησιμότητα
256
743307
1165
είναι χρήσιμα
12:36
and they are going to be something
we work with ratherμάλλον than againstκατά.
257
744496
3816
και θα είναι κάτι με το οποίο
θα δουλεύουμε μαζί, όχι ενάντια.
12:40
We're workingεργαζόμενος with these
ratherμάλλον than againstκατά them.
258
748336
2639
Θα δουλεύουμε μαζί τους
αντί να είμαστε εναντίον τους.
12:42
So, the futureμελλοντικός:
259
750999
1477
Οπότε, το μέλλον:
12:44
Where does that take us?
260
752500
1420
Πού μας πηγαίνει;
12:45
I think that 25 yearsχρόνια from now,
they'llθα το κάνουν look back
261
753944
3567
Πιστευώ ότι σε 25 χρόνια από τώρα,
θα κοιτάμε πίσω
12:49
and look at our understandingκατανόηση
of AIAI and say,
262
757535
3125
και θα δούμε την αντίληψή μας
σχετικά με την ΤΝ και θα λέμε:
12:52
"You didn't have AIAI. In factγεγονός,
you didn't even have the InternetΣτο διαδίκτυο yetΑκόμη,
263
760684
3300
«Δεν είχατε ΤΝ. Βασικά,
ούτε Διαδίκτυο δεν είχατε ακόμα,
12:56
comparedσε συγκριση to what we're going
to have 25 yearsχρόνια from now."
264
764008
2741
σε σχέση με όσα θα έχουμε
σε 25 χρόνια από τώρα».
12:59
There are no AIAI expertsειδικοί right now.
265
767849
3047
Δεν υπάρχουν ειδικοί στην ΤΝ
αυτή τη στιγμή.
13:02
There's a lot of moneyχρήματα going to it,
266
770920
1699
Πηγαίνουν πολλά λεφτά σε αυτόν τον τομέα.
13:04
there are billionsδισεκατομμύρια of dollarsδολάρια
beingνα εισαι spentξόδεψε on it;
267
772643
2268
Ξοδεύονται δισεκατομμύρια δολάρια,
13:06
it's a hugeτεράστιος businessεπιχείρηση,
268
774935
2164
είναι μια τεράστια επιχείρηση,
13:09
but there are no expertsειδικοί, comparedσε συγκριση
to what we'llΚαλά know 20 yearsχρόνια from now.
269
777123
4272
αλλά δεν υπάρχουν ειδικοί, συγκριτικά
με όσα θα ξέρουμε σε 20 χρόνια από τώρα.
13:14
So we are just at the beginningαρχή
of the beginningαρχή,
270
782064
2885
Είμαστε μόνο στην αρχή της αρχής,
13:16
we're in the first hourώρα of all this.
271
784973
2163
είμαστε στην πρώτη ώρα όλου αυτού.
13:19
We're in the first hourώρα of the InternetΣτο διαδίκτυο.
272
787160
1935
Είμαστε στην πρώτη ώρα του Διαδικτύου.
13:21
We're in the first hourώρα of what's comingερχομός.
273
789119
2040
Είμαστε στην πρώτη ώρα των όσων έρχονται.
13:23
The mostπλέον popularδημοφιλής AIAI productπροϊόν
in 20 yearsχρόνια from now,
274
791183
4153
Το πιο δημοφιλές προϊόν ΤΝ
σε 20 χρόνια από τώρα,
13:27
that everybodyόλοι usesχρήσεις,
275
795360
1444
που όλοι θα χρησιμοποιούν,
13:29
has not been inventedεφευρέθηκε yetΑκόμη.
276
797499
1544
δεν έχει εφευρεθεί ακόμα.
13:32
That meansπου σημαίνει that you're not lateαργά.
277
800464
2467
Αυτό σημαίνει ότι δεν έχετε αργήσει.
13:35
Thank you.
278
803684
1151
Ευχαριστώ.
13:36
(LaughterΤο γέλιο)
279
804859
1026
(Γέλια)
13:37
(ApplauseΧειροκροτήματα)
280
805909
2757
(Χειροκρότημα)
Translated by Anastasia Christof
Reviewed by Chryssa Rapessi

▲Back to top

ABOUT THE SPEAKER
Kevin Kelly - Digital visionary
There may be no one better to contemplate the meaning of cultural change than Kevin Kelly, whose life story reads like a treatise on the value and impacts of technology.

Why you should listen

Kelly has been publisher of the Whole Earth Review, executive editor at Wired magazine (which he co-founded, and where he now holds the title of Senior Maverick), founder of visionary nonprofits and writer on biology, business and “cool tools.” He’s renounced all material things save his bicycle (which he then rode 3,000 miles), founded an organization (the All-Species Foundation) to catalog all life on Earth, championed projects that look 10,000 years into the future (at the Long Now Foundation), and more. He’s admired for his acute perspectives on technology and its relevance to history, biology and society. His new book, The Inevitable, just published, explores 12 technological forces that will shape our future.

More profile about the speaker
Kevin Kelly | Speaker | TED.com