ABOUT THE SPEAKER
Sebastian Deterding - Designer
Sebastian Deterding is an interface designer who thinks deeply about persuasive and gameful design.

Why you should listen

Sebastian Deterding is a designer and researcher working on user experience, video games, persuasive technology and gameful design. He is interested in how code shapes conduct -- and how to put that knowledge into practice. He is a PhD researcher in Communication at the Graduate School of the Research Center for Media and Communication, Hamburg University. He is also an affiliated researcher at the Hans Bredow Institute for Media Research in Hamburg, and works as an independent user experience designer.

More profile about the speaker
Sebastian Deterding | Speaker | TED.com
TEDxHogeschoolUtrecht

Sebastian Deterding: What your designs say about you

Sebastian Deterding: Ce spun proiectele voastre despre voi înșivă

Filmed:
667,868 views

Ce spune scaunul tău despre valorile tale? Designerul Sebastian Deterding ne arată cum viziunile noastre asupra moralității și asupra unei vieți bune se reflectă în designul obiectelor care ne înconjoară.
- Designer
Sebastian Deterding is an interface designer who thinks deeply about persuasive and gameful design. Full bio

Double-click the English transcript below to play the video.

00:16
We are todayastăzi talkingvorbind about moralmorală persuasionconvingere.
0
392
2651
Astăzi vom discuta despre persuasiunea morală.
00:18
What is moralmorală and immoralimoral
1
3043
1549
Ce este moral sau imoral în încercarea
00:20
in tryingîncercat to changeSchimbare people'soamenii lui behaviorscomportamente
2
4592
2416
de a schimba comportamentele oamenilor
00:22
by usingutilizând technologytehnologie and usingutilizând designproiecta?
3
7008
2351
cu ajutorul tehnologiei și al design-ului?
00:25
And I don't know what you expectaştepta,
4
9359
1852
Nu știu la ce anume vă așteptați,
00:27
but when I was thinkinggândire about that issueproblema,
5
11211
2048
însă eu, gândindu-mă la această problemă,
00:29
I earlydin timp on realizedrealizat
6
13259
1233
mi-am dat seama destul de rapid
00:30
what I'm not ablecapabil to give you are answersrăspunsuri.
7
14492
3334
că nu sunt în stare să vă ofer răspunsuri.
00:33
I'm not ablecapabil to tell you what is moralmorală or immoralimoral
8
17826
2316
Nu sunt în stare să vă spun ce anume este moral sau imoral
00:36
because we're livingviaţă in a pluralistpluralist ar societysocietate.
9
20142
2916
deoarece trăim într-o societate pluralistă.
00:38
My valuesvalorile can be radicallyradical differentdiferit
10
23058
2633
Valorile mele pot fi radical diferite
00:41
from your valuesvalorile.
11
25691
1884
de valorile voastre.
00:43
WhichCare meansmijloace that what I considerconsidera moralmorală or immoralimoral basedbazat on that
12
27575
3419
Asta înseamnă că ceea ce eu consider moral sau imoral bazându-mă pe acestea
00:46
mightar putea not necessarilyîn mod necesar be what you considerconsidera moralmorală or immoralimoral.
13
30994
3731
ar putea să nu fie ceea ce voi considerați moral sau imoral.
00:50
But I alsode asemenea realizedrealizat that there is one thing that I could give you.
14
34725
2866
Însă mi-am dat seama că există totuși un lucru pe care vi l-aș putea oferi.
00:53
And that is what this guy behindin spate me gavea dat the worldlume --
15
37591
3059
Și asta e ceea ce a oferit întregii lumi tipul ăsta din spatele meu -
00:56
SocratesSocrate.
16
40650
911
Socrate.
00:57
It is questionsîntrebări.
17
41561
1447
Întrebări.
00:58
What I can do and what I would like to do with you
18
43008
2625
Ceea ce pot și îmi doresc să fac cu voi
01:01
is give you, like that initialiniţială questionîntrebare,
19
45633
2020
e să vă ofer, precum acea întrebare de la început,
01:03
a seta stabilit of questionsîntrebări
20
47653
1315
un set de întrebări
01:04
to figurefigura out for yourselftu,
21
48968
2033
pentru a vă da seama voi înșivă,
01:06
layerstrat by layerstrat,
22
51001
1434
strat cu strat,
01:08
like peelingPeeling-ul an onionceapa,
23
52435
2217
așa cum decojim o ceapă,
01:10
gettingobtinerea at the coremiez of what you believe
24
54652
2216
și ajungând la esența a ceea ce considerați
01:12
is moralmorală or immoralimoral persuasionconvingere.
25
56868
3332
că este persuasiunea morală sau imorală.
01:16
And I'd like to do that with a couplecuplu of examplesexemple
26
60200
2868
Și aș dori să fac asta cu ajutorul câtorva exemple
01:18
of technologiestehnologii where people have used gamejoc elementselement
27
63068
2983
de tehnologii în care oamenii au folosit elemente din jocurile electronice
01:21
to get people to do things.
28
66051
3317
pentru a-i convinge pe oameni să facă anumite lucruri.
01:25
So it's a first very simplesimplu, a very obviousevident questionîntrebare
29
69368
3466
Așadar, la început aș dori să vă pun o întrebare
01:28
I would like to give you:
30
72834
1533
foarte simplă, foarte evidentă:
01:30
What are your intentionsintenţiile if you are designingproiect something?
31
74367
2818
Care sunt intențiile voastre atunci când proiectați ceva?
01:33
And obviouslyevident intentionsintenţiile are not the only thing,
32
77185
3233
Și evident, intențiile nu sunt singura chestie,
01:36
so here is anothero alta exampleexemplu for one of these applicationsaplicații.
33
80418
3383
așa că vă dau un exemplu cu o astfel de aplicație.
01:39
There are a couplecuplu of these kindstipuri of eco-dashboardsEco-tablouri de bord right now --
34
83801
2899
La ora actuală există niște tablouri de bord ecologice,
01:42
so dashboardstablouri de bord builtconstruit into carsautoturisme
35
86700
1901
tablouri de bord pentru mașini
01:44
whichcare try to motivatemotiva you to driveconduce more fuelcombustibil efficientlyeficient.
36
88601
2733
care încearcă să te motiveze să folosești combustibilul mai eficient.
01:47
This here is Nissan'sNissan MyLeafMyLeaf,
37
91334
1617
Acesta este MyLeaf al mașinii Nissan,
01:48
where your drivingconducere behaviorcomportament is comparedcomparativ
38
92951
2297
în care modul în care șofezi este comparat
01:51
with the drivingconducere behaviorcomportament of other people,
39
95248
1719
cu modul în care șofează alte persoane,
01:52
so you can competeconcura for who drivesunități around
40
96967
1953
astfel veți putea intra în competiție pentru
01:54
the mostcel mai fuelcombustibil efficientlyeficient.
41
98920
1398
cel care șofează folosind cel mai puțin combustibil.
01:56
And these things are very effectiveefectiv, it turnstransformă out,
42
100318
2266
Și aceste chestii sunt foarte eficiente, se pare,
01:58
so effectiveefectiv that they motivatemotiva people
43
102584
2617
atât de eficiente încât motivează oamenii
02:01
to engageangaja in unsafenesigure drivingconducere behaviorscomportamente --
44
105201
2082
să se angajeze în comportamente periculoase la drum -
02:03
like not stoppingoprire on a redroșu headlightfaruri.
45
107283
1742
de exemplu nu se mai opresc la semaforul roșu.
02:04
Because that way you have to stop and restartrepornire the enginemotor,
46
109025
2221
Deoarece astfel ești obligat să te oprești și să repornești motorul,
02:07
and that would use quitedestul de some fuelcombustibil, wouldn'tnu ar fi it?
47
111246
3920
iar asta ar consuma niște carburant, nu-i așa?
02:11
So despitein ciuda this beingfiind a very well-intendedbine-destinate applicationcerere,
48
115166
4345
În ciuda faptului că aplicația are cele mai bune intenții,
02:15
obviouslyevident there was a sidelatură effectefect of that.
49
119511
2580
în mod evident a apărut un efect secundar.
02:17
And here'saici e anothero alta exampleexemplu for one of these sidelatură effectsefecte.
50
122091
2149
Iată un alt exemplu pentru astfel de efecte secundare.
02:20
CommendableLăudabil:
51
124240
1401
Lăudabil:
02:21
a siteteren that allowspermite parentspărinţi to give theiral lor kidscopii little badgesinsigne
52
125641
3649
un site care permite părinților să dăruiască mici insigne copiilor lor
02:25
for doing the things that parentspărinţi want theiral lor kidscopii to do --
53
129290
2200
ca răsplată pentru că au făcut ce li s-a spus -
02:27
like tyinglegarea theiral lor shoespantofi.
54
131490
1335
de exemplu, să își lege șireturile.
02:28
And at first that soundssunete very nicefrumos,
55
132825
2354
Și la prima vedere totul pare foarte drăguț,
02:31
very benignbenign, well intendeddestinate.
56
135179
1961
foarte inofensiv și bine intenționat.
02:33
But it turnstransformă out, if you look into researchcercetare on people'soamenii lui mindsetmod de gândire,
57
137140
3884
Însă dacă urmărim ultimele studii despre starea de spirit
02:36
that caringîngrijirea about outcomesrezultate,
58
141024
2035
a oamenilor, se pare că urmărirea rezultatelor pozitive,
02:38
caringîngrijirea about publicpublic recognitionrecunoaştere,
59
143059
1797
grija excesivă pentru a obține aprecierea publică,
02:40
caringîngrijirea about these kindstipuri of publicpublic tokenstoken-uri of recognitionrecunoaştere
60
144856
3385
preocuparea pentru toate aceste tipuri de simboluri ale aprecierii
02:44
is not necessarilyîn mod necesar very helpfulutil
61
148241
2518
nu sunt de fapt de mare ajutor
02:46
for your long-termtermen lung psychologicalpsihologic well-beingbunăstare.
62
150759
2197
pentru bunăstarea noastră psihologică, pe termen lung.
02:48
It's better if you careîngrijire about learningînvăţare something.
63
152956
2834
Este mult mai bine dacă urmărești să înveți ceva.
02:51
It's better when you careîngrijire about yourselftu
64
155790
1833
E mult mai bine dacă te îngrijești de tine însuți
02:53
than how you appearapărea in frontfață of other people.
65
157623
2986
decât să îți faci gânduri despre cum arăți în fața altora.
02:56
So that kinddrăguț of motivationalmotivationale toolinstrument that is used
66
160609
3181
Astfel, acel tip de instrument motivațional care a fost utilizat
02:59
actuallyde fapt in and of itselfîn sine
67
163790
1784
de fapt prin și în sine
03:01
has a long-termtermen lung sidelatură effectefect
68
165574
2184
are un efect secundar pe termen lung
03:03
in that everyfiecare time we use a technologytehnologie
69
167758
1717
în sensul că de fiecare dată când utilizăm o anumită tehnologie
03:05
that usesutilizări something like publicpublic recognitionrecunoaştere or statusstare,
70
169475
3315
ce folosește concepte precum aprecierea publică sau statutul public,
03:08
we're actuallyde fapt positivelypozitiv endorsingVizarea this
71
172790
2400
noi de fapt întărim în mod pozitiv aceste concepte
03:11
as a good and a normalnormal thing to careîngrijire about --
72
175190
3434
ca și cum acestea ar fi lucruri bune și normale de care să fim preocupați -
03:14
that way, possiblyeventual havingavând a detrimentalîn detrimentul effectefect
73
178624
2685
în acel fel având și un posibil efect dăunător
03:17
on the long-termtermen lung psychologicalpsihologic well-beingbunăstare of ourselvesnoi insine as a culturecultură.
74
181309
4082
asupra bunăstării noastre psihologice pe termen lung, ca parte a unei culturi.
03:21
So that's a secondal doilea, very obviousevident questionîntrebare:
75
185391
2468
Iată o a doua întrebare, foarte evidentă:
03:23
What are the effectsefecte of what you're doing?
76
187859
2632
Care sunt efectele acţiunilor tale?
03:26
The effectsefecte that you're havingavând with the devicedispozitiv,
77
190491
2105
Efectele pe care le obții prin acest dispozitiv,
03:28
like lessMai puțin fuelcombustibil,
78
192596
1417
de exemplu: mai puțin combustibil,
03:29
as well as the effectsefecte of the actualreal toolsunelte you're usingutilizând
79
194013
2783
dar și efectele uneltelor pe care le folosești de fapt
03:32
to get people to do things --
80
196796
2032
pentru a convinge oamenii să facă anumite lucruri -
03:34
publicpublic recognitionrecunoaştere.
81
198828
1583
precum aprecierea publică.
03:36
Now is that all -- intentionintenție, effectefect?
82
200411
2950
Oare asta să fie tot - intenție, efect?
03:39
Well there are some technologiestehnologii
83
203361
1520
Ei bine, există anumite tehnologii
03:40
whichcare obviouslyevident combinecombina bothambii.
84
204881
1734
care le combină pe amândouă în mod clar.
03:42
BothAmbele good long-termtermen lung and short-termtermen scurt effectsefecte
85
206615
2365
Atât efectele bune pe termen lung și scurt cât și o intenție
03:44
and a positivepozitiv intentionintenție like FredFred Stutzman'sStutzman pe FreedomLibertatea,
86
208980
3052
pozitivă precum cea din aplicația Freedom a lui Fred Stutzman,
03:47
where the wholeîntreg pointpunct of that applicationcerere
87
212032
1559
în care ideea de bază ar fi,
03:49
is, well, we're usuallyde obicei so bombardedbombardati
88
213591
3271
ei bine, noi suntem de obicei atât de bombardați
03:52
with callsapeluri and requestscereri by other people,
89
216862
1201
cu apeluri telefonice și cerințe din partea altora,
03:53
with this devicedispozitiv you can shutînchide off the InternetInternet connectivityconectivitatea
90
218063
2616
cu ajutorul acestui dispozitiv poți să închizi conexiunea la
03:56
of your PCPC-UL of choicealegere for a presetpresetate amountCantitate of time
91
220679
3384
internet a calculatorului ales pentru o perioadă prestabilită
03:59
to actuallyde fapt get some work doneTerminat.
92
224063
2200
de timp, pentru a reuși să te ocupi de treburile tale.
04:02
And I think mostcel mai of us will agreede acord,
93
226263
1333
Și eu cred că majoritatea dintre noi vor fi de acord,
04:03
well that's something well intendeddestinate
94
227596
1449
e ceva care are intenții bune
04:04
and alsode asemenea has good consequencesconsecințe.
95
229045
2117
și de asemenea, are și consecințe bune.
04:07
In the wordscuvinte of MichelMichel FoucaultFoucault,
96
231162
2117
În cuvintele lui Michel Foucault,
04:09
"It is a technologytehnologie of the selfde sine."
97
233279
2217
"Este o tehnologie a sinelui."
04:11
It is a technologytehnologie that empowersimputerniceste the individualindividual
98
235496
2351
Este o tehnologie care dă putere individului
04:13
to determinea determina its ownpropriu life coursecurs,
99
237847
2348
să determine felul în care se modelează
04:16
to shapeformă itselfîn sine.
100
240195
1884
cursul propriei sale vieți.
04:17
But the problemproblemă is,
101
242079
1116
Însă problema ar fi,
04:19
as FoucaultFoucault pointspuncte out,
102
243195
1801
așa cum Foucault menționa,
04:20
that everyfiecare technologytehnologie of the selfde sine
103
244996
1799
că fiecare tehnologie a sinelui
04:22
has a technologytehnologie of dominationdominaţie as its flipflip- sidelatură.
104
246795
3167
are o tehnologie de dominare pe partea cealaltă a monedei.
04:25
As you see in today'sastăzi modernmodern liberalliberale democraciesdemocraţiile,
105
249962
4334
Așa cum puteți vedea la democrațiile moderne liberale
04:30
the societysocietate, the statestat,
106
254296
2119
din zilele noastre, societatea, statul,
04:32
not only allowspermite us to determinea determina our selfde sine, to shapeformă our selfde sine,
107
256415
4379
nu numai că ne permit să ne determinăm sinele, să îi dăm formă,
04:36
it alsode asemenea demandscereri it of us.
108
260794
1818
ci ne și cer asta.
04:38
It demandscereri that we optimizeoptimiza ourselvesnoi insine,
109
262612
2334
Ni se cere să ne optimizăm sinele,
04:40
that we controlControl ourselvesnoi insine,
110
264946
1550
să ne controlăm,
04:42
that we self-manageadministreze continuouslycontinuu
111
266496
2449
să ne auto-administrăm în mod continuu
04:44
because that's the only way
112
268945
1801
deoarece acesta este singurul mod
04:46
in whichcare suchastfel de a liberalliberale societysocietate workslucrări.
113
270746
2715
în care poate funcționa o societate liberală.
04:49
These technologiestehnologii want us to staystau in the gamejoc
114
273461
4293
Aceste tehnologii vor ca noi să rămânem în jocul
04:53
that societysocietate has devisedconceput for us.
115
277754
2642
pe care societatea l-a conceput pentru noi.
04:56
They want us to fitpotrivi in even better.
116
280396
2465
Ei doresc ca noi să ne integrăm și mai bine.
04:58
They want us to optimizeoptimiza ourselvesnoi insine to fitpotrivi in.
117
282861
2859
Ei doresc ca noi să ne auto-optimizăm pentru a ne integra.
05:01
Now I don't say that is necessarilyîn mod necesar a badrău thing.
118
285720
3530
Eu nu spun acum că acesta ar fi neapărat un lucru rău.
05:05
I just think that this exampleexemplu
119
289250
2633
Pur și simplu cred că acest exemplu
05:07
pointspuncte us to a generalgeneral realizationrealizarea,
120
291883
2316
ne direcţionează către o înțelegere a unui concept general,
05:10
and that is no mattermaterie what technologytehnologie or designproiecta you look at,
121
294199
3719
și anume că indiferent la ce tehnologie sau design te uiți,
05:13
even something we considerconsidera as well intendeddestinate and as good in its effectsefecte --
122
297918
5066
chiar și ceva ce pare a fi la fel de bine intenționat și având
05:18
like Stutzman'sStutzman pe FreedomLibertatea --
123
302984
1233
efecte la fel de pozitive precum aplicația lui Stutzman,
05:20
comesvine with certainanumit valuesvalorile embeddedîncorporat in it.
124
304217
2700
vine cu un anumit sistem de valori încorporate.
05:22
And we can questionîntrebare these valuesvalorile.
125
306917
1683
Iar noi putem să avem îndoieli asupra acestor valori.
05:24
We can questionîntrebare: Is it a good thing
126
308600
1931
Putem să ne întrebăm: este oare un lucru bun
05:26
that all of us continuouslycontinuu self-optimizeauto-optimiza ourselvesnoi insine
127
310531
3883
să ajungem să ne auto-optimizăm cu toții încontinuu
05:30
to fitpotrivi better into that societysocietate?
128
314414
1902
pentru a ne integra mai bine în acea societate?
05:32
Or to give you anothero alta exampleexemplu,
129
316316
1499
Sau, ca că vă dau un alt exemplu,
05:33
what about a piecebucată of persuasivepersuasivă technologytehnologie
130
317815
1884
ce părere aveți despre acea tehnologie care convinge
05:35
that convincesconvinge MuslimMusulmane womenfemei to wearpurta theiral lor headscarvesBaticuri?
131
319699
3700
femeile musulmane să își poarte baticurile?
05:39
Is that a good or a badrău technologytehnologie
132
323399
2284
Este aceasta o tehnologie bună sau proastă
05:41
in its intentionsintenţiile or in its effectsefecte?
133
325683
2516
prin intențiile și efectele sale?
05:44
Well that basicallype scurt dependsdepinde
134
328199
1400
Păi acest lucru depinde de fapt
05:45
on the kinddrăguț of valuesvalorile that you bringaduce to bearurs
135
329599
2684
de tipul de valori pe care le scoți în evidență
05:48
to make these kindstipuri of judgmentsjudecăți.
136
332283
2116
pentru a face astfel de judecăți.
05:50
So that's a thirdal treilea questionîntrebare:
137
334399
2034
Așadar iată o a treia întrebare:
05:52
What valuesvalorile do you use to judgejudecător?
138
336433
1552
Care sunt valorile pe care le folosiți pentru a emite păreri?
05:53
And speakingvorbitor of valuesvalorile,
139
337985
1849
Și dacă tot vorbim despre valori,
05:55
I've noticeda observat that in the discussiondiscuţie about moralmorală persuasionconvingere onlinepe net,
140
339834
3286
am observat că în discuțiile despre persuasiunea morală
05:59
and when I'm talkingvorbind with people,
141
343120
1798
atât online cât și discutând cu alții,
06:00
more oftende multe ori than not there is a weirdciudat biaspărtinire.
142
344918
2789
adesea apare un fel de părtinire cam ciudată.
06:03
And that biaspărtinire is that we're askingcer,
143
347707
3260
Mă refer la faptul că ne întrebăm
06:06
is this or that "still" ethicaletic?
144
350967
3117
dacă un lucru sau altul "încă mai este" etic?
06:09
Is it "still" permissibleadmisibilă?
145
354084
2334
Mai este "încă" permisibil?
06:12
We're askingcer things like,
146
356418
1268
Noi întrebăm chestii precum,
06:13
Is this OxfamOxfam donationdonare formformă --
147
357686
2266
este oare acest formular de donații Oxfam -
06:15
where the regularregulat monthlylunar donationdonare is the presetpresetate defaultîn mod implicit
148
359952
3016
în care donația lunară apare acolo ca și setare implicită
06:18
and people, maybe withoutfără intendingcare intenţionează it,
149
362968
2084
iar oamenii, poate fără să își dea seama,
06:20
are that way encouragedîncurajat or nudgednudged
150
365052
2815
sunt în acest fel încurajați sau înghiontiți
06:23
into givingoferindu- a regularregulat donationdonare insteadin schimb of a one-timeo singură dată donationdonare --
151
367867
2397
să facă donații regulate în locul unei singure donații -
06:26
is that still permissibleadmisibilă?
152
370264
1366
este acest lucru încă permis?
06:27
Is it still ethicaletic?
153
371630
1386
Mai este acest lucru etic?
06:28
We're fishingpescuit at the lowscăzut endSfârşit.
154
373016
1684
Nu suntem corecți.
06:30
But in factfapt, that questionîntrebare
155
374700
1877
Însă, de fapt, acea întrebare
06:32
"Is it still ethicaletic?"
156
376577
910
"Încă mai este etic?"
06:33
is just one way of looking at ethicsetica.
157
377487
2330
este doar unul din modurile în care putem aborda etica.
06:35
Because if you look at the beginningînceput of ethicsetica
158
379817
2591
Pentru că dacă ne uităm la începuturile eticii
06:38
in WesternWestern culturecultură,
159
382408
2225
în cultura vestică,
06:40
you see a very differentdiferit ideaidee
160
384633
2165
descoperim complet altă
06:42
of what ethicsetica alsode asemenea could be.
161
386798
1536
definiție a eticii.
06:44
For AristotleAristotel, ethicsetica was not about the questionîntrebare,
162
388334
4098
Pentru Aristotel, etica nu se referea la întrebarea,
06:48
is that still good, or is it badrău?
163
392432
2485
dacă un lucru mai este încă bun sau rău?
06:50
EthicsEtica was about the questionîntrebare of how to livetrăi life well.
164
394917
3450
Etica punea problema traiului bun.
06:54
And he put that in the wordcuvânt "areteArete,"
165
398367
2162
Şi el a adăugat acolo cuvântul "arete,"
06:56
whichcare we, from the [AncientVechi GreekGreacă], translateTraduceți as "virtuevirtutea."
166
400529
2921
pe care noi, din latină, îl traducem ca "virtute."
06:59
But really it meansmijloace excellenceexcelenta.
167
403450
1625
Însă de fapt înseamnă excelență.
07:00
It meansmijloace livingviaţă up to your ownpropriu fulldeplin potentialpotenţial
168
405075
3999
Înseamnă să trăiești viața la potențialul tău maxim
07:04
as a humanuman beingfiind.
169
409074
2228
ca ființă umană.
07:07
And that is an ideaidee
170
411302
1184
Iar aceasta este o idee
07:08
that, I think, that PaulPaul RichardRichard BuchananBuchanan nicelyfrumos put in a recentRecent essayeseu
171
412486
3506
pe care cred că Paul Richard Buchanan a introdus-o într-unul dintre eseurile sale recente
07:11
where he said, "ProductsProduse are vividvii argumentsargumente
172
415992
2451
spunând "Produsele sunt dovezi vii
07:14
about how we should livetrăi our livesvieți."
173
418443
2098
despre felul în care ar trebui să ne trăim viețile".
07:16
Our designsmodele are not ethicaletic or unethicallipsite de etică
174
420541
2886
Produsele noastre de design nu sunt etice sau neetice
07:19
in that they're usingutilizând ethicaletic or unethicallipsite de etică meansmijloace of persuadingconvinge us.
175
423427
4614
prin faptul că folosesc metode de persuasiune etice sau neetice.
07:23
They have a moralmorală componentcomponent
176
428041
1567
Acestea au o componentă morală
07:25
just in the kinddrăguț of visionviziune and the aspirationaspiraţia of the good life
177
429608
4089
pur și simplu prin viziunea și prin aspirația la o viață bună
07:29
that they presentprezent to us.
178
433697
2696
pe care ni le prezintă.
07:32
And if you look into the designedproiectat environmentmediu inconjurator around us
179
436393
3315
Iar dacă privești în jur și te uiți la mediul proiectat de om
07:35
with that kinddrăguț of lensobiectiv,
180
439708
1196
dintr-o astfel de perspectivă,
07:36
askingcer, "What is the visionviziune of the good life
181
440904
2221
și te întrebi "Care este viziunea vieții bune
07:39
that our productsproduse, our designproiecta, presentprezent to us?",
182
443125
3018
prezentată de produsele noastre, de design-ul nostru?"
07:42
then you oftende multe ori get the shiversfiori,
183
446143
2300
te apucă adeseori tremuratul
07:44
because of how little we expectaştepta of eachfiecare other,
184
448443
2352
observând cât de puține așteptări avem unii de la alții
07:46
of how little we actuallyde fapt seempărea to expectaştepta
185
450795
2718
cât de puține așteptări avem de la viețile noastre
07:49
of our life and what the good life looksarată like.
186
453513
3583
și de la imaginea unei vieți bune.
07:52
So that's the fourthAl patrulea questionîntrebare I'd like to leavepărăsi you with:
187
457096
3801
Și iată ce-a de-a patra întrebare cu care aș dori să rămâneți:
07:56
What visionviziune of the good life
188
460897
1483
Ce fel de viziune asupra unei vieți bune
07:58
do your designsmodele conveytransmite?
189
462380
3665
este transmisă prin proiectele voastre?
08:01
And speakingvorbitor of designproiecta,
190
466045
1102
Și dacă tot vorbim despre design,
08:03
you noticeînștiințare that I alreadydeja broadenedlărgit the discussiondiscuţie.
191
467147
3732
puteți observa că deja am lărgit aria de discuție.
08:06
Because it's not just persuasivepersuasivă technologytehnologie that we're talkingvorbind about here,
192
470879
4735
Pentru că noi nu discutăm numai despre tehnologiile persuasive,
08:11
it's any piecebucată of designproiecta that we put out here in the worldlume.
193
475614
4200
ci despre orice produs de design pe care îl aducem pe lume.
08:15
I don't know whetherdacă you know
194
479814
1382
Nu știu dacă cunoașteți deja faptul că Paul Watzlawick,
08:17
the great communicationcomunicare researchercercetător PaulPaul WatzlawickWatzlawick
195
481196
1668
marele cercetător în domeniul comunicațiilor,
08:18
who, back in the '60s, madefăcut the argumentargument
196
482864
1848
care, încă prin anii '60 a demostrat
08:20
we cannotnu poti not communicatecomunica.
197
484712
1335
că ne este imposibil să nu comunicăm.
08:21
Even if we choosealege to be silenttăcut,
198
486047
2533
Chiar dacă am alege tăcerea,
08:24
we chosea ales to be silenttăcut. We're communicatingcomunicarea something by choosingalegerea to be silenttăcut.
199
488580
4397
noi am ales tăcerea. Comunicăm ceva prin alegerea de a tăcea.
08:28
And in the samela fel way that we cannotnu poti not communicatecomunica,
200
492977
2604
Și așa cum nu putem să nu comunicăm,
08:31
we cannotnu poti not persuadeconvinge.
201
495581
1517
nu putem nici să nu convingem.
08:32
WhateverOricare ar fi we do or refrainsă se abţină from doing,
202
497098
2299
Orice am face sau orice ne abținem să facem,
08:35
whateverindiferent de we put out there as a piecebucată of designproiecta
203
499397
2866
orice am aduce pe lume,
08:38
into the worldlume
204
502263
1267
ca obiect de design,
08:39
has a persuasivepersuasivă componentcomponent.
205
503530
2284
va avea o componentă persuasivă.
08:41
It triesîncercări to affecta afecta people.
206
505814
2116
Va încerca să influențeze oamenii.
08:43
It putsputs a certainanumit visionviziune of the good life
207
507930
2184
Va transmite o anumită viziune a vieții bune
08:46
out there in frontfață of us.
208
510114
1337
chiar în fața noastră.
08:47
WhichCare is what Peter-PaulPeter-Paul VerbeekEpisteme,
209
511451
1986
Și asta e ceea ce spunea Peter-Paul Verbeek,
08:49
the DutchOlandeză philosopherfilozof of technologytehnologie, saysspune.
210
513437
2146
filosoful olandez.
08:51
No mattermaterie whetherdacă we as designersdesigneri intendintenționează it or not,
211
515583
4566
Indiferent de ceea ce noi ca designeri intenționăm sau nu să facem,
08:56
we materializematerializa moralitymoralitate.
212
520149
1764
noi materializăm moralitatea.
08:57
We make certainanumit things harderMai tare and easierMai uşor to do.
213
521913
3051
Noi facem ca anumite lucruri să fie mai greu sau mai ușor de realizat.
09:00
We organizeorganiza the existenceexistenţă of people.
214
524964
1950
Noi organizăm existența oamenilor.
09:02
We put a certainanumit visionviziune of what good or badrău
215
526914
2750
Noi așezăm în fața oamenilor o anumită viziune asupra binelui
09:05
or normalnormal or usualca de obicei is in frontfață of people
216
529664
3368
sau a răului sau a normalității sau a uzualului
09:08
by everything we put out there in the worldlume.
217
533032
2549
prin tot ceea ce aducem pe lume.
09:11
Even something as innocuousinofensive as a seta stabilit of schoolşcoală chairsscaune
218
535581
3516
Chiar și ceva la fel de inofensiv precum un set
09:14
is a persuasivepersuasivă technologytehnologie.
219
539097
1434
de scaune școlare, reprezintă o tehnologie persuasivă.
09:16
Because it presentscadouri and materializesse materializează
220
540531
2816
Deoarece acestea prezintă și materializează
09:19
a certainanumit visionviziune of the good life --
221
543347
1934
o anumită viziune a vieții bune -
09:21
the good life in whichcare teachingînvățătură and learningînvăţare and listeningascultare
222
545281
3482
acea viață bună în care educația și învățarea și ascultarea
09:24
is about one personpersoană teachingînvățătură, the othersalții listeningascultare,
223
548763
2935
se referă la o persoană care predă, iar ceilalți ascultă,
09:27
in whichcare it is about, learningînvăţare is doneTerminat while sittingședință,
224
551698
3752
în care învățarea are loc în timp ce suntem așezați,
09:31
in whichcare you learnînvăța for yourselftu,
225
555450
2230
în care învățăm pentru noi înșine,
09:33
in whichcare you're not supposedpresupus to changeSchimbare these rulesnorme
226
557680
2250
în care nu avem voie să schimbăm aceste reguli
09:35
because the chairsscaune are fixedfix to the groundsol.
227
559930
3250
deoarece scaunele sunt fixate pe pardoseală.
09:39
And even something as innocuousinofensive as a singlesingur designproiecta chairscaun --
228
563180
3383
Și chiar ceva atât de inofensiv precum un simplu proiect pentru un scaun -
09:42
like this one by ArneArne JacobsenJacobsen --
229
566563
1301
de exemplu acesta realizat de Arne Jacobsen -
09:43
is a persuasivepersuasivă technologytehnologie.
230
567864
1701
reprezintă o tehnologie persuasivă.
09:45
Because, again, it communicatescomunică an ideaidee of the good life.
231
569565
3415
Deoarece, din nou, comunică ideea unei vieți bune.
09:48
A good life --
232
572980
1499
O viață bună -
09:50
a life that you say you as a designerproiectant consentconsimţământ to
233
574479
2201
o viață la care tu aderi în calitate de designer
09:52
by sayingzicală, "In the good life,
234
576680
2087
spunând "în viața cea bună,
09:54
goodsbunuri are producedprodus as sustainablyîn mod durabil or unsustainablyrentabilitate as this chairscaun.
235
578767
4014
bunurile sunt produse la fel de sustenabil sau de nesustenabil
09:58
WorkersLucrătorilor are treatedtratate as well or as badlyprost
236
582781
2622
precum acest scaun. Muncitorii sunt tratați la fel de bine
10:01
as the workersmuncitorii were treatedtratate who builtconstruit that chairscaun."
237
585403
2644
sau de rău precum muncitorii care au construit acest scaun."
10:03
The good life is a life where designproiecta is importantimportant
238
588047
2333
Viața cea bună este o viață în care designul are importanță
10:06
because somebodycineva obviouslyevident tooka luat the time and spenta petrecut the moneybani
239
590380
2734
pentru că cineva, în mod evident, și-a consumat timpul
10:09
for that kinddrăguț of well-designedbine concepute chairscaun,
240
593114
1864
și banii pentru un astfel de scaun bine-proiectat,
10:10
where traditiontradiţie is importantimportant
241
594978
1419
o viață în care tradiția are valoare
10:12
because this is a traditionaltradiţional classicclasic
242
596397
1801
deoarece acesta este un clasic tradițional
10:14
and someonecineva caredîngrijit about this,
243
598198
1512
și cuiva i-a păsat de asta,
10:15
and where there is something as conspicuousvizibil consumptionconsum,
244
599710
1952
iar acolo unde consumul devine izbitor,
10:17
where it is okay and normalnormal
245
601662
1568
acolo unde este normal și acceptabil
10:19
to spendpetrece a humungousHumungous amountCantitate of moneybani on suchastfel de a chairscaun
246
603230
3019
să cheltuiești sume enorme de bani pentru un astfel de scaun
10:22
to signalsemnal to other people what your socialsocial statusstare is.
247
606249
3415
pentru a semnala altora care este statutul tău social.
10:25
So these are the kindstipuri of layersstraturi, the kindstipuri of questionsîntrebări
248
609664
3167
Așadar acestea ar fi acele straturi, acele tipuri de întrebări
10:28
I wanted to leadconduce you throughprin todayastăzi --
249
612831
1753
prin care doream să vă îndrum astăzi -
10:30
the questionîntrebare of, What are the intentionsintenţiile
250
614584
2148
întrebarea "Care sunt intențiile
10:32
that you bringaduce to bearurs when you're designingproiect something?
251
616732
2466
pe care le aduceți la lumină atunci când proiectați ceva?
10:35
What are the effectsefecte, intendeddestinate and unintendedinvoluntare, that you're havingavând?
252
619198
3500
Care sunt efectele, intenționate și neintenționate pe care le realizați?
10:38
What are the valuesvalorile you're usingutilizând
253
622698
1565
Care sunt valorile pe care le utilizați
10:40
to judgejudecător those?
254
624263
1352
pentru a judeca?
10:41
What are the virtuesvirtuţile, the aspirationsaspirații
255
625615
1467
Care sunt virtuțile și aspirațiile
10:42
that you're actuallyde fapt expressingexprimând in that?
256
627082
2719
exprimate prin asta?
10:45
And how does that applyaplica,
257
629801
2095
Și cum se aplică aceste lucruri,
10:47
not just to persuasivepersuasivă technologytehnologie,
258
631896
1992
nu doar tehnologiei persuasive,
10:49
but to everything you designproiecta?
259
633888
2334
ci în absolut tot ceea ce proiectați?
10:52
Do we stop there?
260
636222
1902
Ne oprim aici?
10:54
I don't think so.
261
638124
1633
Nu cred.
10:55
I think that all of these things are eventuallyîn cele din urmă informedinformat
262
639757
4465
Cred că toate aceste lucruri sunt, în final,
11:00
by the coremiez of all of this --
263
644222
1718
inspirate din esența tuturor acestor lucruri -
11:01
and this is nothing but life itselfîn sine.
264
645940
3115
iar asta nu e altceva decât viața în sine.
11:04
Why, when the questionîntrebare of what the good life is
265
649055
2900
De ce să ne oprim la design, atunci când întrebarea
11:07
informsinformează everything that we designproiecta,
266
651955
2351
"Care este viața cea bună?" ne inspiră în tot
11:10
should we stop at designproiecta and not askcere ourselvesnoi insine,
267
654306
2583
ceea ce proiectăm și să nu ne întrebăm
11:12
how does it applyaplica to our ownpropriu life?
268
656889
2733
cum se aplică asta vieților noastre?
11:15
"Why should the lamplampă or the housecasă be an artartă objectobiect,
269
659622
2735
"De ce trebuie ca lampa sau casa să fie obiecte de artă
11:18
but not our life?"
270
662357
1231
și nu propriile noastre vieți?"
11:19
as MichelMichel FoucaultFoucault putsputs it.
271
663588
1616
cum spunea Michel Foucault.
11:21
Just to give you a practicalpractic exampleexemplu of BusterBuster BensonBenson.
272
665204
3551
Am să vă dau un exemplu practic despre Buster Benson.
11:24
This is BusterBuster settingcadru up a pull-uptrage-up machinemaşină
273
668755
2515
Acesta e Buster în timp ce construia o mașinărie de ridicat
11:27
at the officebirou of his newnou startuplansare HabitObiceiul LabsLaboratoare,
274
671270
2453
la birourile noii sale afaceri de antreprenoriat Habit Labs,
11:29
where they're tryingîncercat to buildconstrui up other applicationsaplicații
275
673723
2017
în care ei încearcă să realizeze și alte aplicații
11:31
like HealthSănătate MonthLună for people.
276
675740
1982
precum Health Month.
11:33
And why is he buildingclădire a thing like this?
277
677722
2580
Și de ce construiește el o asemenea chestie?
11:36
Well here is the seta stabilit of axiomsAxiomele
278
680302
2005
Ei bine, iată un set de axiome
11:38
that HabitObiceiul LabsLaboratoare, Buster'sBuster startuplansare, put up for themselvesînșiși
279
682307
3203
formulate de firma lui de antreprenoriat Habit Labs,
11:41
on how they wanted to work togetherîmpreună as a teamechipă
280
685510
3121
legat de modul în care aceștia doreau să lucreze ca echipă
11:44
when they're buildingclădire these applicationsaplicații --
281
688631
1824
atunci când construiau aceste aplicații -
11:46
a seta stabilit of moralmorală principlesprincipii they seta stabilit themselvesînșiși
282
690455
2052
un set de principii morale alcătuite de ei înșiși
11:48
for workinglucru togetherîmpreună --
283
692507
1748
pentru a lucra împreună -
11:50
and one of them beingfiind,
284
694255
1398
iar una dintre acestea fiind
11:51
"We take careîngrijire of our ownpropriu healthsănătate and manageadministra our ownpropriu burnoutBurnout."
285
695653
3082
"Noi ne îngrijim de propria noastră sănătate și de
11:54
Because ultimatelyîn cele din urmă how can you askcere yourselvesînșivă
286
698735
3750
administrarea propriul nostru nivel de epuizare."
11:58
and how can you find an answerRăspuns
287
702485
1467
Căci în final cum altfel ai putea să te întrebi sau să afli
11:59
on what visionviziune of the good life
288
703952
2300
ce fel de viziune asupra vieții bune dorești să transmiți
12:02
you want to conveytransmite and createcrea with your designsmodele
289
706252
3101
și să creezi prin proiectele tale
12:05
withoutfără askingcer the questionîntrebare,
290
709353
1682
fără a-ți pune întrebarea
12:06
what visionviziune of the good life
291
711035
1484
care ar fi viziunea asupra unei vieți bune
12:08
do you yourselftu want to livetrăi?
292
712519
2900
în care dorești să trăiești tu însuți?
12:11
And with that, I thank you.
293
715419
4250
Și cu asta, vă mulțumesc.
12:15
(ApplauseAplauze)
294
719669
2963
(Aplauze)
Translated by Klara L. VEER
Reviewed by Aura Raducan

▲Back to top

ABOUT THE SPEAKER
Sebastian Deterding - Designer
Sebastian Deterding is an interface designer who thinks deeply about persuasive and gameful design.

Why you should listen

Sebastian Deterding is a designer and researcher working on user experience, video games, persuasive technology and gameful design. He is interested in how code shapes conduct -- and how to put that knowledge into practice. He is a PhD researcher in Communication at the Graduate School of the Research Center for Media and Communication, Hamburg University. He is also an affiliated researcher at the Hans Bredow Institute for Media Research in Hamburg, and works as an independent user experience designer.

More profile about the speaker
Sebastian Deterding | Speaker | TED.com