0:00:00.844,0:00:03.222 Als we aan vooroordelen denken, 0:00:03.222,0:00:05.366 denken we vaak aan domme [br]en gemene mensen 0:00:05.366,0:00:07.820 die domme en gemene dingen doen. 0:00:07.820,0:00:09.890 Dit beeld wordt goed samengevat 0:00:09.890,0:00:12.358 door de Britse criticus William Hazlitt, 0:00:12.358,0:00:15.293 die schreef: ''Vooroordelen [br]zijn het kind van onwetendheid.'' 0:00:15.293,0:00:17.405 Ik wil proberen jullie [br]ervan te overtuigen 0:00:17.405,0:00:19.040 dat die uitspraak niet klopt. 0:00:19.040,0:00:22.372 Ik wil proberen om jullie [br]ervan te overtuigen dat vooroordelen 0:00:22.375,0:00:25.783 natuurlijk zijn, vaak rationeel, 0:00:25.783,0:00:27.614 en vaak zelfs moreel zijn. 0:00:27.614,0:00:29.866 Ik geloof dat we, als we dit begrijpen, 0:00:29.866,0:00:32.375 beter in staat zijn om ze te doorzien 0:00:32.375,0:00:33.432 als het verkeerd gaat, 0:00:33.432,0:00:35.350 als ze vreselijke gevolgen hebben. 0:00:35.350,0:00:37.525 Zo weten we beter wat te doen 0:00:37.525,0:00:39.207 als dit gebeurt. 0:00:39.207,0:00:41.244 We beginnen met stereotypen. 0:00:41.244,0:00:44.480 Je kijkt naar mij, je kent mijn naam en[br]enkele dingen over mij. 0:00:44.480,0:00:46.309 Je zou je een oordeel kunnen vormen. 0:00:46.309,0:00:49.162 Je zou kunnen raden naar mijn etniciteit, 0:00:49.162,0:00:52.443 mijn politieke kleur, mijn geloof. 0:00:52.443,0:00:54.542 En deze beoordelingen kloppen vaak nog ook. 0:00:54.542,0:00:56.724 We zijn erg goed in dit soort dingen. 0:00:56.724,0:01:00.850 Dit komt doordat onze vaardigheid [br]om mensen te stereotyperen 0:01:00.850,0:01:04.195 niet een willekeurig trekje is [br]van onze hersenen, 0:01:04.195,0:01:06.511 maar eerder een specifiek voorbeeld 0:01:06.511,0:01:08.166 van een algemener proces, 0:01:08.166,0:01:09.785 het feit dat wij ervaring hebben 0:01:09.785,0:01:11.326 met zaken en mensen in de wereld 0:01:11.326,0:01:12.575 die in categorieën vallen, 0:01:12.575,0:01:15.081 en dat we die ervaring gebruiken [br]om te generaliseren 0:01:15.081,0:01:17.390 over nieuwe voorbeelden [br]binnen deze categorieën. 0:01:17.390,0:01:19.757 Iedereen heeft veel ervaring 0:01:19.757,0:01:22.010 met stoelen, appels en honden. 0:01:22.010,0:01:23.646 Op basis daarvan kan je 0:01:23.646,0:01:25.998 bij onbekende voorbeelden meteen raden 0:01:25.998,0:01:29.874 dat je op de stoel kunt zitten, de appel [br]kunt eten, en dat de hond zal blaffen. 0:01:29.879,0:01:31.783 Nu zijn vergissingen mogelijk. 0:01:31.783,0:01:33.443 De stoel kan inzakken, 0:01:33.443,0:01:35.225 de appel zou giftig kunnen zijn, 0:01:35.225,0:01:36.975 en misschien blaft de hond niet - 0:01:36.975,0:01:39.714 dit is trouwens mijn hond Tessie, [br]die niet blaft. 0:01:39.714,0:01:42.490 Maar meestal zijn we er goed in. 0:01:42.490,0:01:44.044 Meestal kloppen onze gissingen 0:01:44.044,0:01:46.003 op sociaal zowel als niet-sociaal vlak, 0:01:46.003,0:01:50.620 en als we niet in staat zouden zijn om te [br]raden naar nieuwe gevallen die we ervaren, 0:01:50.620,0:01:52.509 zouden we niet overleven. 0:01:52.509,0:01:55.844 Later in zijn prachtige essay [br]geeft Hazlitt dit toe. 0:01:55.844,0:01:58.536 Hij schrijft: ''Zonder [br]vooroordelen en gewoontes 0:01:58.536,0:02:00.876 zou ik de weg niet kunnen [br]vinden in een kamer, 0:02:00.876,0:02:03.588 me in geen enkele situatie [br]weten te gedragen, 0:02:03.588,0:02:07.291 en niet weten hoe ik me in een [br]relatie in het leven moest voelen.'' 0:02:07.291,0:02:09.040 Of neem bijvoorbeeld partijdigheid. 0:02:09.040,0:02:10.748 Soms verdelen we de wereld in 0:02:10.748,0:02:13.749 wij tegen hen, in groepsleden [br]tegen buitenstaanders. 0:02:13.749,0:02:16.470 En als we dat doen, weten we soms [br]dat wij iets fout doen 0:02:16.470,0:02:18.140 en voelen wij er ons schuldig bij. 0:02:18.140,0:02:21.443 Maar soms voelen wij ons juist trots[br]en geven we het openlijk toe. 0:02:21.443,0:02:22.878 Mijn favoriete voorbeeld 0:02:22.878,0:02:25.120 is een vraag uit het publiek 0:02:25.120,0:02:27.837 in een Republikeins debat [br]vóór de afgelopen verkiezingen. 0:02:27.837,0:02:30.129 (Video) Anderson Cooper: Uw vraag, 0:02:30.129,0:02:34.310 de vraag in de hal, over hulp [br]aan het buitenland? 0:02:34.310,0:02:39.103 Vrouw: De Amerikaanse bevolking [br]heeft het moeilijk in ons land, nu. 0:02:39.103,0:02:42.531 Waarom blijven wij hulp sturen 0:02:42.531,0:02:43.847 aan het buitenland 0:02:43.847,0:02:47.950 als wij alle hulp zelf goed kunnen gebruiken? 0:02:47.950,0:02:49.645 AC: Gouverneur Perry, hoe zit dat? 0:02:49.645,0:02:51.012 (Applaus) 0:02:51.012,0:02:53.350 Rick Perry: Absoluut, ik denk dat het -- 0:02:53.350,0:02:55.010 Paul Bloom: Iedereen op het podium 0:02:55.010,0:02:56.981 was het eens met de stelling in haar vraag, 0:02:56.981,0:03:01.020 dat wij als Amerikanen meer moeten geven[br]om Amerikanen dan om anderen. 0:03:01.226,0:03:04.091 Mensen laten zich vaker meeslepen 0:03:04.091,0:03:07.599 door gevoelens van solidariteit, [br]loyaliteit, trots en patriottisme 0:03:07.599,0:03:10.315 jegens hun eigen land of etnische groep. 0:03:10.315,0:03:13.650 Los van hun politieke voorkeur [br]zijn velen trots om Amerikaan te zijn. 0:03:13.650,0:03:15.462 Ze geven de voorkeur aan Amerikanen. 0:03:15.462,0:03:18.312 Inwoners van andere landen[br]voelen hetzelfde voor hun land, 0:03:18.312,0:03:20.798 en evenzo voor onze etnische afkomst. 0:03:20.798,0:03:22.482 Sommigen wijzen dit misschien af. 0:03:22.482,0:03:24.203 Sommigen zijn zo kosmopolitisch 0:03:24.213,0:03:26.547 dat je denkt dat etnische [br]en nationale afkomst 0:03:26.547,0:03:28.700 geen moreel effect zouden moeten hebben. 0:03:28.700,0:03:31.462 Maar zelfs verfijnde mensen [br]zoals jullie aanvaarden 0:03:31.462,0:03:37.436 dat men neigt naar de ingroep, vrienden [br]en familie, mensen die je nabij zijn. 0:03:37.436,0:03:38.979 En dus maak zelfs jij [br]een onderscheid 0:03:38.979,0:03:40.954 tussen ons en zij. 0:03:40.954,0:03:43.557 Dit onderscheid is natuurlijk 0:03:43.557,0:03:46.481 en vaak ook moreel,[br]maar het kan fout gaan. 0:03:46.481,0:03:48.210 Dit was voorwerp van het onderzoek 0:03:48.210,0:03:50.969 van de grote sociale psycholoog[br]Henri Tajfel. 0:03:50.969,0:03:53.574 TaJfel werd geboren in Polen in 1919. 0:03:53.574,0:03:55.713 Hij trok naar Frankrijk [br]voor zijn studie, 0:03:55.713,0:03:58.268 want als Jood kon hij [br]in Polen niet studeren. 0:03:58.268,0:04:02.058 Hij nam dienst in het Franse leger [br]tijdens de Tweede Wereldoorlog. 0:04:02.061,0:04:05.370 Hij kwam terecht [br]in een krijgsgevangenkamp. 0:04:05.370,0:04:07.628 Het was een vreselijke tijd voor hem, 0:04:07.628,0:04:09.796 want als zou ontdekt worden[br]dat hij Joods was, 0:04:09.796,0:04:13.398 zou hij naar het concentratiekamp gaan,[br]wat hij wellicht niet zou overleven. 0:04:13.400,0:04:15.987 En inderdaad, toen hij vrijkwam [br]na de oorlog 0:04:15.987,0:04:18.492 waren de meeste van zijn vrienden[br]en familie dood. 0:04:18.492,0:04:20.329 Hij hield zich [br]met allerlei bezig. 0:04:20.329,0:04:21.860 Hij hielp oorlogswezen. 0:04:21.860,0:04:23.591 Maar hij had levenslang interesse 0:04:23.591,0:04:25.586 voor de wetenschap[br]van het vooroordeel. 0:04:25.586,0:04:27.586 Toen een prestigieuze Britse beurs 0:04:27.586,0:04:29.641 voor de studie van stereotypen vrijkwam,[br] 0:04:29.641,0:04:31.268 vroeg hij ze aan en kreeg hij ze, 0:04:31.268,0:04:33.188 de start van zijn geweldige carrière. 0:04:33.188,0:04:35.457 Die begon met het inzicht 0:04:35.457,0:04:37.777 dat de manier waarop de meeste mensen 0:04:37.777,0:04:39.893 over de Holocaust dachten, fout was. 0:04:39.893,0:04:42.299 De meesten zagen die toentertijd 0:04:42.299,0:04:46.950 als een uiting van een tragisch gebrek[br]aan Duitse kant, 0:04:47.204,0:04:51.038 een genetische fout, een autoritaire[br]persoonlijkheid. 0:04:51.038,0:04:53.096 Tajfel wees dat af. 0:04:53.096,0:04:55.529 Hij zei dat we in de Holocaust 0:04:55.529,0:04:57.560 slechts een overdrijving zien 0:04:57.560,0:04:59.728 van normale psychologische processen 0:04:59.728,0:05:01.489 die in elk van ons bestaan. 0:05:01.489,0:05:04.384 Om dat uit te zoeken, deed hij [br]een reeks klassieke studies 0:05:04.384,0:05:05.918 met Britse adolescenten. 0:05:05.918,0:05:10.027 In één ervan stelde hij [br]de Britse adolescenten allerlei vragen. 0:05:10.027,0:05:12.433 Op basis van hun antwoorden zei hij dan: 0:05:12.433,0:05:15.797 "Ik heb jullie antwoorden bekeken,[br]en op die basis ben je ofwel 0:05:15.797,0:05:17.363 -- zei hij tegen de helft -- 0:05:17.363,0:05:20.320 "een Kandinsky-fan, [br]je houdt van het werk van Kandinsky, 0:05:20.320,0:05:23.298 of een Klee-fan,[br]je houdt van het werk van Klee." 0:05:23.298,0:05:25.204 Het sloeg nergens op: hun antwoorden 0:05:25.204,0:05:27.404 hadden niets te maken [br]met Kandinsky of Klee. 0:05:27.404,0:05:30.132 Ze hadden er waarschijnlijk[br]nooit van gehoord. 0:05:30.132,0:05:32.872 Hij deelde ze gewoon willekeurig in. 0:05:32.872,0:05:36.143 Maar hij stelde vast dat [br]de categorieën belangrijk waren, 0:05:36.143,0:05:38.654 want als hij de proefpersonen[br]later geld gaf, 0:05:38.654,0:05:40.330 gaven ze dat liever 0:05:40.330,0:05:42.130 aan leden van hun eigen groep 0:05:42.130,0:05:43.963 dan aan leden van de andere groep. 0:05:43.963,0:05:46.290 Erger nog, ze maakten het liefst 0:05:46.290,0:05:50.222 een verschil tussen de eigen [br]en andere groepen, 0:05:50.222,0:05:52.770 en gaven geld voor hun eigen groep op 0:05:52.770,0:05:58.018 als ze daardoor de andere groep[br]nog minder konden geven. (Gelach) 0:05:58.018,0:06:00.236 Deze voorkeur vertoont zich al snel. 0:06:00.236,0:06:02.536 Mijn echtgenote en collega Karen Wynn 0:06:02.536,0:06:05.627 deed in Yale een reeks studies [br]met baby's die ze confronteert 0:06:05.627,0:06:09.194 met poppen die een voorkeur hebben[br]voor een bepaald voedsel. 0:06:09.194,0:06:11.526 Sommige poppen zijn dol op groenen bonen. 0:06:11.526,0:06:14.001 Andere houden van graham crackers. 0:06:14.001,0:06:16.370 Ze testen de voedselvoorkeuren[br]van de baby's 0:06:16.370,0:06:19.060 en dat is meestal graham crackers. 0:06:19.060,0:06:23.562 De vraag is of dat impact heeft[br]op hoe ze de poppen behandelen. 0:06:23.562,0:06:24.788 Nou en of. 0:06:24.788,0:06:26.307 Ze verkiezen de pop[br] 0:06:26.307,0:06:29.786 die dezelfde smaak heeft als zij. 0:06:29.786,0:06:32.342 Ze verkiezen zelfs poppen[br] 0:06:32.342,0:06:35.327 die de pop straffen met de andere smaak. 0:06:35.327,0:06:37.604 (Gelach) 0:06:37.604,0:06:41.026 We zien voortdurend dit soort psychologie[br]van 'in-groep' en 'uit-groep'. 0:06:41.026,0:06:43.200 We zien het in politieke botsingen 0:06:43.200,0:06:45.314 tussen groepen met diverse ideologieën. 0:06:45.314,0:06:48.940 In extreme mate [br]zien we het in oorlogen, 0:06:48.940,0:06:52.157 waarbij de uit-groep [br]niet enkel minder krijgt, 0:06:52.157,0:06:53.745 maar ontmenselijkt wordt, 0:06:53.745,0:06:55.985 zoals toen de nazi's de joden 0:06:55.985,0:06:58.070 als ongedierte of luizen zagen, 0:06:58.070,0:07:02.306 of de Amerikanen de Japanners als ratten. 0:07:02.306,0:07:04.520 Stereotypen kunnen verkeerd uitpakken. 0:07:04.520,0:07:06.781 Ze zijn vaak rationeel en nuttig, 0:07:06.781,0:07:09.675 maar soms zijn ze irrationeel[br]en geven ze het foute antwoord. 0:07:09.675,0:07:12.978 En soms hebben ze volstrekt[br]immorele gevolgen. 0:07:12.978,0:07:15.781 Het meest bestudeerde geval 0:07:15.781,0:07:17.448 is dat van racisme. 0:07:17.448,0:07:20.879 Er was een fascinerend onderzoek[br]voor de verkiezingen van 2008 0:07:20.879,0:07:24.225 waarbij sociale psychologen keken[br]naar de mate waarin 0:07:24.225,0:07:27.397 kandidaten met Amerika [br]werden geassocieerd, 0:07:27.397,0:07:31.002 onbewust, met de Amerikaanse vlag. 0:07:31.002,0:07:34.438 Eén van die onderzoeken vergeleek[br]Obama met McCain. 0:07:34.438,0:07:37.766 Ze stelden vast dat McCain als meer[br]Amerikaans gold dan Obama. 0:07:37.766,0:07:40.339 Tot op zekere hoogte [br]wekt dat geen verbazing. 0:07:40.339,0:07:42.257 McCain is een gevierde oorlogsheld. 0:07:42.257,0:07:44.116 Vele mensen zeiden letterlijk 0:07:44.116,0:07:46.616 dat hij een Amerikaanser verhaal had[br]dan Obama. 0:07:46.616,0:07:48.693 Maar ze vergeleken Obama ook 0:07:48.693,0:07:51.069 met de Britse premier Tony Blair. 0:07:51.069,0:07:53.330 Ze stelden vast dat Blair ook gold 0:07:53.330,0:07:55.837 als Amerikaanser dan Obama, 0:07:55.837,0:07:57.910 hoewel de proefpersonen expliciet begrepen 0:07:57.910,0:08:00.900 dat hij helemaal niet Amerikaans is. 0:08:00.900,0:08:02.584 Ze reageerden uiteraard 0:08:02.584,0:08:04.735 op zijn huidskleur. 0:08:05.375,0:08:08.816 Deze stereotiepen en voorkeuren[br]hebben gevolgen in het echte leven 0:08:08.816,0:08:11.748 die tegelijk subtiel [br]en erg belangrijk zijn. 0:08:11.748,0:08:14.410 In een recent onderzoek zette men 0:08:14.410,0:08:17.679 op eBay baseballplaatjes te koop. 0:08:17.679,0:08:20.413 Sommige werden vastgehouden[br]door een blanke hand, 0:08:20.413,0:08:21.631 andere door een zwarte. 0:08:21.631,0:08:23.210 Het waren dezelfde plaatjes. 0:08:23.210,0:08:26.554 Voor de plaatjes in de zwarte hand[br]werd substantieel minder geboden 0:08:26.554,0:08:29.005 dan voor de plaatjes in de blanke hand. 0:08:29.005,0:08:31.367 In een onderzoek uit Stanford 0:08:31.367,0:08:35.597 onderzochten psychologen [br]de zaak van mensen 0:08:35.597,0:08:39.166 die waren veroordeeld [br]voor moord op een blanke. 0:08:39.166,0:08:41.970 Bleek dat als je al de rest gelijk houdt, 0:08:41.970,0:08:44.820 er een veel grotere kans is[br]dat je wordt geëxecuteerd 0:08:44.820,0:08:48.127 als je er uitziet als de man rechts[br]dan als de man links. 0:08:48.127,0:08:50.119 Dat komt vooral doordat 0:08:50.119,0:08:52.653 de man rechts er meer uitziet[br] 0:08:52.653,0:08:55.493 als het prototype van een zwarte,[br]een Afrikaanse Amerikaan. 0:08:55.493,0:08:57.332 Dat beïnvloedt blijkbaar de beslissing 0:08:57.332,0:08:59.103 over wat er met hem moet gebeuren. 0:08:59.103,0:09:00.650 Nu we dit weten, 0:09:00.650,0:09:02.307 wat kunnen we eraan doen? 0:09:02.307,0:09:03.929 Er zijn meerdere wegen. 0:09:03.929,0:09:05.363 Een weg is beroep doen 0:09:05.363,0:09:07.409 op de emotionele respons van mensen, 0:09:07.409,0:09:09.542 op hun empathie. 0:09:09.542,0:09:11.415 Dat doen we vaak door verhalen. 0:09:11.415,0:09:13.980 Als je je kinderen vrij opvoedt 0:09:13.980,0:09:15.622 en ze wilt aanmoedigen 0:09:15.622,0:09:18.106 om te geloven in niet-traditionele [br]gezinsmodellen 0:09:18.106,0:09:20.859 kan je ze zo'n boek geven[br][Heather heeft twee mama's]. 0:09:20.859,0:09:22.835 Een conservatief geeft dit soort boek. 0:09:22.835,0:09:26.086 [Help! Mama! Er zitten vrijdenkers [br]onder mijn bed!] (Gelach) 0:09:26.086,0:09:28.991 Meestal kunnen verhalen [br]anonieme vreemdelingen 0:09:28.991,0:09:31.603 veranderen in mensen die ertoe doen. 0:09:31.603,0:09:33.868 Het idee dat we om mensen geven 0:09:33.868,0:09:36.020 als we hen als individu bekijken, 0:09:36.020,0:09:38.139 is van alle tijden. 0:09:38.139,0:09:40.722 Er is een apocrief citaat van Stalin 0:09:40.722,0:09:42.329 "Eén enkele dood is een tragedie, 0:09:42.329,0:09:44.379 1 miljoen doden zijn een statistiek." 0:09:44.379,0:09:47.840 Moeder Teresa zei: "Als ik naar de massa [br]kijk, zal ik nooit handelen. 0:09:47.840,0:09:49.906 Als ik naar één mens kijk wel." 0:09:49.906,0:09:51.766 Psychologen hebben dit verkend. 0:09:51.766,0:09:53.067 In een onderzoek 0:09:53.067,0:09:55.850 gaven ze mensen een lijst [br]feiten over een crisis, 0:09:55.850,0:09:59.986 en je zag hoeveel ze zouden geven 0:09:59.986,0:10:01.690 om de crisis op te lossen. 0:10:01.690,0:10:03.637 Een andere groep kreeg geen informatie, 0:10:03.637,0:10:05.625 maar wel een verhaal over een individu. 0:10:05.625,0:10:08.065 Ze kregen een naam en een gezicht. 0:10:08.065,0:10:11.284 Bleek dat zij meer gaven. 0:10:11.284,0:10:15.235 Dit is geen geheim voor mensen [br]die met liefdadigheid bezig zijn. 0:10:15.236,0:10:18.997 Ze overstelpen je niet [br]met feiten en statistieken. 0:10:18.997,0:10:22.009 Toon ze eerder gezichten,[br]toon ze mensen. 0:10:22.009,0:10:26.242 Het is mogelijk dat de sympathie [br]die we hebben voor een individu 0:10:26.242,0:10:29.973 zich uitbreidt tot op de groep[br]waartoe dat individu behoort. 0:10:30.061,0:10:32.527 Dit is Harriet Beecher Stowe. 0:10:32.527,0:10:34.970 Er is een wellicht apocrief verhaal 0:10:34.970,0:10:37.044 dat president Lincoln haar uitnodigde 0:10:37.044,0:10:39.042 op het Witte Huis tijdens de burgeroorlog, 0:10:39.042,0:10:40.436 en dat hij zei: 0:10:40.436,0:10:43.290 "U bent dus het dametje[br]dat deze grote oorlog begon." 0:10:43.290,0:10:45.495 Hij had het over [br]'De negerhut van oom Tom'. 0:10:45.495,0:10:47.706 Dat is geen groot filosofisch werk, 0:10:47.706,0:10:50.850 geen theologie en wellicht [br]zelfs geen literatuur, 0:10:50.850,0:10:53.365 maar wat het heel goed kan, 0:10:53.365,0:10:55.863 is ons dwingen om ons [br]te verplaatsen in mensen 0:10:55.863,0:10:58.196 in wiens schoenen we anders [br]nooit zouden staan, 0:10:58.196,0:11:00.598 in de schoenen van slaven. 0:11:00.598,0:11:04.449 Dat kan best de katalysator geweest zijn[br]van een grote sociale verandering. 0:11:04.449,0:11:08.804 Recenter, als je kijkt naar Amerika [br]in de jongste decennia, 0:11:08.804,0:11:12.563 kunnen we aannemen [br]dat series als 'The Cosby Show' 0:11:12.563,0:11:15.471 de houding tegenover Afrikaans-Amerikanen[br]radicaal wijzigde, 0:11:15.471,0:11:18.234 terwijl series als 'Will en Grace' [br]en 'Modern Family' 0:11:18.234,0:11:21.367 de Amerikaanse houding tegenover [br]homo's en lesbiennes wijzigden. 0:11:21.367,0:11:23.352 Het is niet overdreven 0:11:23.352,0:11:26.633 om te zeggen dat de grootste katalysator [br]van morele verandering 0:11:26.633,0:11:28.906 in Amerika komische series waren. 0:11:28.906,0:11:30.782 Maar het gaat niet alleen om emoties. 0:11:30.782,0:11:33.838 Ik wil besluiten met een beroep[br]op de kracht van de rede. 0:11:33.838,0:11:38.208 Ergens in zijn mooie boek 'Ons betere ik',[br]zegt Steven Pinker: 0:11:38.208,0:11:42.148 "In het oude testament moet je [br]van je buren houden, 0:11:42.148,0:11:44.380 in het nieuwe testament van je vijand, 0:11:44.380,0:11:47.122 maar ik hou van [br]geen van beiden, niet echt, 0:11:47.122,0:11:48.885 maar ik wil ze niet vermoorden. 0:11:48.885,0:11:50.751 Ik weet dat ik verplichtingen heb, 0:11:50.751,0:11:54.221 maar mijn morele gevoelens jegens hen, [br]mijn morele geloof 0:11:54.221,0:11:56.184 over hoe ik mij jegens hen [br]moet gedragen, 0:11:56.184,0:11:57.981 is niet op liefde gebaseerd, 0:11:57.981,0:11:59.920 maar wel op mensenrechten, 0:11:59.920,0:12:02.423 een geloof dat hun leven [br]even waardevol is voor hen 0:12:02.423,0:12:04.499 als het mijne voor mij." 0:12:04.499,0:12:06.431 Hij onderbouwt dit met een verhaal 0:12:06.431,0:12:08.279 van de grote filosoof Adam Smith. 0:12:08.279,0:12:12.485 Ik vertel het hier met een kleine [br]aanpassing aan de moderne tijd. 0:12:12.939,0:12:15.500 Adam Smith vraagt om je in te beelden 0:12:15.500,0:12:17.301 dat duizenden mensen sterven 0:12:17.301,0:12:20.521 en wel in een land dat jij niet kent. 0:12:21.020,0:12:24.574 Misschien China of India [br]of een land in Afrika. 0:12:24.574,0:12:27.058 Smith zegt : "Hoe zou jij reageren?" 0:12:27.058,0:12:29.365 Dan zeg jij 'jammer' 0:12:29.365,0:12:31.241 en je gaat verder met je leven. 0:12:31.241,0:12:33.460 Als je de New York Times online raadpleegt 0:12:33.460,0:12:36.420 en dit ziet, en dat [br]gebeurt ons voortdurend, 0:12:36.420,0:12:37.941 dan ga je verder met je leven. 0:12:37.941,0:12:40.145 Maar stel je voor, zegt Smith, 0:12:40.145,0:12:43.929 dat je verneemt dat je morgen[br]je pink zal kwijtspelen. 0:12:43.929,0:12:46.097 Dat zou veel uitmaken, zegt Smith. 0:12:46.097,0:12:48.718 Je zou die nacht niet slapen [br]door het piekeren. 0:12:48.721,0:12:50.880 De vraag is dus: 0:12:50.880,0:12:53.346 zou je duizenden levens opofferen 0:12:53.346,0:12:55.235 om je pink te redden? 0:12:55.235,0:12:58.243 Antwoord daar veilig [br]in je eigen hoofd op. (Gelach) 0:12:58.243,0:13:00.552 Smith zegt: helemaal niet, 0:13:00.552,0:13:02.244 wat een vreselijke gedachte. 0:13:02.244,0:13:04.275 En zo rijst de vraag, 0:13:04.275,0:13:05.649 met de woorden van Smith: 0:13:05.649,0:13:07.867 "Als onze passieve gevoelens haast altijd 0:13:07.867,0:13:09.315 zo vies en egoïstisch zijn, 0:13:09.315,0:13:13.093 waarom zijn onze actieve principes[br]dan vaak zo genereus en edel?" 0:13:13.093,0:13:17.108 Zijn antwoord is: "Door rede,[br]principes en geweten. 0:13:17.108,0:13:18.679 Die zegt ons, met een stem 0:13:18.679,0:13:22.104 die in staat is om de meest[br]pretentieuze van onze passies te verbazen, 0:13:22.104,0:13:23.891 dat wij maar één uit de massa zijn, 0:13:23.891,0:13:26.352 en op geen enkele wijze [br]beter dan anderen." 0:13:26.352,0:13:28.507 Dit laatste deel wordt vaak beschreven 0:13:28.507,0:13:31.555 als het principe van onpartijdigheid. 0:13:31.555,0:13:34.184 Dit principe komt op de proppen 0:13:34.184,0:13:35.931 in alle religies ter wereld, 0:13:35.951,0:13:38.209 in alle versies van de gulden regel, 0:13:38.209,0:13:40.663 en in alle moraalfilosofieën ter wereld. 0:13:40.663,0:13:41.970 Ze verschillen vaak, 0:13:41.970,0:13:45.184 maar ze delen de premisse[br]dat we moraliteit moeten beoordelen 0:13:45.184,0:13:47.949 vanuit een soort onpartijdig standpunt. 0:13:47.949,0:13:49.771 De beste uitwerking van deze visie 0:13:49.771,0:13:52.856 komt voor mij niet [br]van een theoloog of filosoof, 0:13:52.856,0:13:54.213 maar van Humphrey Bogart 0:13:54.213,0:13:55.750 aan het einde van 'Casablanca'. 0:13:55.750,0:14:00.666 Opgepast, ik verklap het einde: hij zegt [br]zijn geliefde dat ze uit elkaar moeten 0:14:00.676,0:14:02.069 voor een hoger belang, 0:14:02.069,0:14:04.133 en hij zegt - ik doe het zonder accent - 0:14:04.133,0:14:05.915 "Er is niet veel nodig om te zien 0:14:05.915,0:14:07.644 dat de problemen van drie mensjes 0:14:07.644,0:14:10.515 in deze maffe wereld[br]niet zo gek veel voorstellen." 0:14:10.515,0:14:13.665 Onze rede kan zorgen dat we [br]onze passies opzij zetten. 0:14:13.665,0:14:16.621 Ze kan ons motiveren [br]om onze empathie uit te breiden, 0:14:16.621,0:14:19.049 om een boek te schrijven als [br]'De negerhut van oom Tom',[br] 0:14:19.049,0:14:20.892 of zo'n boek te lezen. 0:14:20.892,0:14:23.026 Ze kan ons motiveren 0:14:23.026,0:14:25.308 om gewoontes en taboes [br]en wetten te maken 0:14:25.308,0:14:26.878 die ons beletten 0:14:26.878,0:14:28.794 om op onze impulsen af te gaan 0:14:28.794,0:14:32.083 als we, als rationele wezens, voelen[br]dat we moeten ingeperkt worden. 0:14:32.083,0:14:34.101 Daar dient een grondwet voor. 0:14:34.101,0:14:36.712 Een grondwet is iets[br]dat in het verleden werd opgezet 0:14:36.712,0:14:38.609 en heden ten dage van toepassing is. 0:14:38.609,0:14:39.554 Het zegt: 0:14:39.554,0:14:43.841 hoe graag we ook een populaire president[br]een derde ambtstermijn zouden gunnen, 0:14:43.841,0:14:45.939 hoe graag blanke Amerikanen misschien 0:14:45.939,0:14:49.997 de slavernij opnieuw willen instellen,[br]dat kan niet. 0:14:49.997,0:14:51.673 We hebben onszelf vastgelegd. 0:14:51.673,0:14:54.090 Dat doen we ook op andere manieren. 0:14:54.090,0:14:56.848 We weten dat als we iemand moeten kiezen 0:14:56.848,0:14:59.799 voor een baan of een prijs, 0:14:59.799,0:15:02.757 dat we dan sterk bevooroordeeld zijn[br]door ras, 0:15:02.757,0:15:05.053 geslacht, 0:15:05.053,0:15:07.268 hoe knap ze zijn. 0:15:07.268,0:15:09.919 Soms zeggen we: "Zo hoort het." 0:15:09.919,0:15:12.226 Maar soms zeggen we: "Dit is fout." 0:15:12.226,0:15:14.115 Om dit te bevechten, 0:15:14.115,0:15:16.366 proberen we niet gewoon harder, 0:15:16.366,0:15:19.367 maar we zetten situaties op 0:15:19.367,0:15:22.406 waar andere informatiebronnen[br]ons niet kunnen beïnvloeden. 0:15:22.406,0:15:23.721 Daarom houden vele orkesten 0:15:23.721,0:15:26.366 audities voor muzikanten [br]achter een scherm, 0:15:26.366,0:15:30.380 zodat ze alléén die informatie krijgen [br]die ze nodig denken te hebben. 0:15:30.380,0:15:32.626 Ik denk dat vooroordelen 0:15:32.626,0:15:35.720 een fundamentele dualiteit[br]van de menselijke natuur blootleggen. 0:15:35.720,0:15:39.496 We hebben buikgevoel, instinct, emoties. 0:15:39.496,0:15:42.107 Die beïnvloeden onze beoordeling[br]en onze daden, 0:15:42.107,0:15:43.988 positief en negatief, 0:15:43.988,0:15:47.610 maar we zijn ook in staat [br]tot rationeel oordelen 0:15:47.610,0:15:49.045 en intelligent plannen, 0:15:49.045,0:15:51.862 en dat kunnen we gebruiken om, soms, 0:15:51.862,0:15:53.805 onze emotie te versnellen en te voeden, 0:15:53.805,0:15:56.573 en soms om ze te stelpen. 0:15:56.573,0:15:57.927 Op deze manier 0:15:57.927,0:16:00.684 helpt de rede ons [br]om de wereld te verbeteren. 0:16:00.684,0:16:02.486 Dank je wel. 0:16:02.486,0:16:04.403 (Applaus)