古村治彦です。

 

2018年3月19日、ユヴァル・ノア・ハラリは『ニューヨーク・タイムズ』紙の著名なコラムニストであるトーマス・L・フリードマンとロンドンでシンポジウムを行ったそうです。その時の記事が出ていましたのでご紹介します。

sapienszenshi001

サピエンス全史(上)文明の構造と人類の幸福

 

ハラリが書いた『サピエンス全史』は日本でも大ヒットしましたが、上下2巻もあってなかなか読み通すことはできません。今回のシンポジウムでハラリは人類の未来が決して明るくないということを述べています。

 
sapiensuge001
サピエンス全史(下)文明の構造と人類の幸福


人類(ホモ・サピエンス)はその知恵(サピエンス)のために滅んでいくことになるでしょう、ということがハラリの言いたいことなのでしょう。人類は地球上の王者でござい、という顔をして威張っていますが、地球という惑星にとってみれば、突然頭でっかちになって他の種を殺しまくって、支配しまくって、地球を汚しまくってきた迷惑な存在ということになるでしょう。

 

私は人類自体が滅んでしまうのならばそれはそれで仕方がない(生きている間に滅ぶのかどうかは分からない)、地球の「意志」がそこにあるのなら仕方がない、と考えます。滅びの時に生を受けている人類の子孫、後輩の皆さんは恐怖を味わうでしょうから申し訳ないことですが、多くの場合に死とは恐怖を覚えるものでしょうから、そこは申し訳ないが甘受していただくしかありません。

 

暗い話になりましたが、このように考えると、失敗や後悔をしていることでも、自分が背負う以上に背負い込まなくても良いと考えられるようになります。これがハラリの本が受け入れられた時代背景なのではないかと思います。

 アルゴリズム、AI、ビッグデータで民主政治体制が乗っ取られるということは、既に起きています。ケンブリッジ・アナリティカという企業が様々な国の選挙に影響を与えようとしてSNS、特にフェイスブックを使っていたことは既に報道されています。個人の好み、好きな食べ物から政党まで私たちは知らず知らずのうちに個人情報を表に出し、フェイスブックはただで使わせる代わりにそうした情報を企業に提供するということをしています。また、アマゾンでは、「あなたはあの商品をお買いになったのでこれがお好きではないですか」という「提案」的な宣伝がなされます。これも同じことです。私たちを私たち自身よりもより詳しく正確に分析し、影響を与えることが出来る存在が出てきたということで、人類の進む方向はこれまた暗いものとならざるを得ません。

 しかし、こうしたことを頭に入れながら、最悪のことに備える、という姿勢を取ることは、人類普遍(不変)の知恵なのかもしれません。

 

=====

 

●ハラリが言いたいこと

・ハラリは「人類は複雑な世界を創造してしまい、もはや起きている現象について理解できないようになっている」と警告を発した。

 

●ハラリが述べていること(記事からの抜粋)

・アルゴリズムと技術によって人類は神のような力を持つ「超人」のような存在にみえるようになっている。

・人工知能と自動化によって「世界規模の役に立たない階級(global useless class)」が生み出される(19世紀の産業革命によって労働者階級が生み出された)。

・破壊的な技術は、大きな進歩をもたらしてくれたが、コントロールができなくなったら破滅的な結果をもたらすことになる。

 

・新しい技術は民主政治体制と自己意識を乗っ取ることになる。

・バイオ技術、IT、アルゴリズムといったものが私たち自身よりも私たちをよりよく理解するようになる。

・私たち自身よりも私たちを理解する外部の存在が出てくれば、20世紀からの自由主義的民主政治体制の形は崩壊する。

・自由主義的民主政治体制は人間の感情を基礎にしている。そして、あなた自身もしくは母親以上にあなたのことを理解している人はいないということを前提にして機能している。アルゴリズムがあなた以上にあなたのことを理解し、こうしたことが起きるということを理解しなければ、自由主義的民主政治体制は操り人形ショーにすぎなくなる。感情を操られてしまう。

 

・技術はグループではなく、個人に対する差別のための新しい道具となるだろう。

・20世紀において差別はあるグループ全体に対して様々な偏見や先入観を基礎にして行われた。差別に対してなくすための行動をとり、なくすことが可能であった。

・私たちは個人に対する差別に直面するだろう。私たちがどのような人間かを判定されて差別される。

・フェイスブックやDNAのような企業を理想とするある企業はアルゴリズムを使って、人々の記録からその人がどんな人間かを判定できるようになる。こうした差別は、その人が少数派に属しているからではなく、その人自身に基づいて差別を行う。これは実際に起きるであろうし、恐ろしいことだ。

 

・人類が何かを決断し、その結果が出るまでに数世紀、数千年かかっていた。

・時間は加速している。長期間という言葉は今や20年ほどの期間のことを指す。

・20年から30年で世界がどのようになっているかが誰にも分からないというのは歴史上初めての経験だ。様々なことがほんの20、30年でどうなっているか分からないということになると、学校で何を教えるべきかが分からない、そんな状況になる。

 

・指導者たちは過去にばかりこだわっている。それは彼らは未来に関する意味のあるヴィジョンを持っていないからだ。

・指導者たちは2050年の人類がどのようになっているかというヴィジョンを持っていないが、過去についてノスタルジックな虚構を生み出している。どれほど昔に戻りたいと考えているかの競争のようだ。

・あらかじめ方向性が決められた歴史がなくなった。

・不可避性をめぐる物語が崩壊した中で私たちは生きている。

・極端な幻滅と困惑の中に私たちは生きている、それは物事がどのように進むか分からないからだ。

・下落傾向と新しい技術に関わる危険なシナリオについて認識することは重要だ。

 

・複雑化し、相互につながる世界において、道徳の再定義が必要となってくる。

・素晴らしい価値観を持つだけでは十分ではなく、因果関係の連鎖を理解しなければ素晴らしい行動を取ることはできない。

 

(貼り付けはじめ)

 

What’s Next for Humanity: Automation, New Morality and a ‘Global Useless Class’

 

By KIMIKO de FREYTAS-TAMURAMARCH 19, 2018

https://www.nytimes.com/2018/03/19/world/europe/yuval-noah-harari-future-tech.html?smid=fb-share

 

Humans, Mr. Harari warned, “have created such a complicated world that we’re no longer able to make sense of what is happening.”

 

LONDON — What will our future look like — not in a century but in a mere two decades?

 

Terrifying, if you’re to believe Yuval Noah Harari, the Israeli historian and author of “Sapiens” and “Homo Deus,” a pair of audacious books that offer a sweeping history of humankind and a forecast of what lies ahead: an age of algorithms and technology that could see us transformed into “super-humans” with godlike qualities.

 

In an event organized by The New York Times and How To Academy, Mr. Harari gave his predictions to the Times columnist Thomas L. Friedman. Humans, he warned, “have created such a complicated world that we’re no longer able to make sense of what is happening.” Here are highlights of the interview.

 

Artificial intelligence and automation will create a ‘global useless class.’

 

Just as the Industrial Revolution created the working class, automation could create a “global useless class,” Mr. Harari said, and the political and social history of the coming decades will revolve around the hopes and fears of this new class. Disruptive technologies, which have helped bring enormous progress, could be disastrous if they get out of hand.

 

Every technology has a good potential and a bad potential,” he said. “Nuclear war is obviously terrible. Nobody wants it. The question is how to prevent it. With disruptive technology the danger is far greater, because it has some wonderful potential. There are a lot of forces pushing us faster and faster to develop these disruptive technologies and it’s very difficult to know in advance what the consequences will be, in terms of community, in terms of relations with people, in terms of politics.”

 

New technologies could hijack democracy, and even our sense of self.

 

The combination of biotech and I.T. might reach a point where it creates systems and algorithms that understand us better than we understand ourselves.

 

Once you have an external outlier that understands you better than you understand yourself, liberal democracy as we have known it for the last century or so is doomed,” Mr. Harari predicted.

 

Liberal democracy trusts in the feelings of human beings, and that worked as long as nobody could understand your feelings better than yourself — or your mother,” he said. “But if there is an algorithm that understands you better than your mother and you don’t even understand that this is happening, then liberal democracy will become an emotional puppet show,” he added. “What happens if your heart is a foreign agent, a double agent serving somebody else, who knows how to press your emotional buttons, who knows how to make you angry, how to make you bold, how to make you joyful? This is the kind of threat we’re beginning to see emerging today, for example in elections and referendum.”

 

Technology will be a new tool for discrimination — not against groups but individuals.

 

In the 20th century, discrimination was used against entire groups based on various biases. It was fixable, however, because those biases were not true and victims could join together and take political action. But in the coming years and decades, Mr. Harari said, “we will face individual discrimination, and it might actually be based on a good assessment on who you are.”

 

If algorithms employed by a company look up your Facebook profile or DNA, trawl through school and professional records, they could figure out pretty accurately who you are. “You will not be able to do anything about this discrimination first of all because it’s just you,” Mr. Harari said. “They don’t discriminate against your being because you’re Jewish or gay, but because you’re you. And the worst thing is that it will be true. It sounds funny, but it’s terrible.”

 

Time is ‘accelerating.’

 

It took centuries, even thousands of years, for us to reap the rewards of decisions made by our forebears, for example, growing wheat that led to the agricultural revolution. Not anymore.

 

 Time is accelerating,” Mr. Harari said. The long term may no longer be defined in centuries or millenniums — but in terms of 20 years. “It’s the first time in history when we’ll have no idea how human society will be like in a couple of decades,” he said.

 

 We’re in an unprecedented situation in history in the sense that nobody knows what the basics about how the world will look like in 20 or 30 years. Not just the basics of geopolitics but what the job market would look like, what kind of skills people will need, what family structures will look like, what gender relations will look like. This means that for the first time in history we have no idea what to teach in schools.”

 

Leaders focus on the past because they lack a meaningful vision of the future.

 

Leaders and political parties are still stuck in the 20th century, in the ideological battles pitting the right against the left, capitalism versus socialism. They don’t even have realistic ideas of what the job market looks like in a mere two decades, Mr. Harari said, “because they can’t see.”

 

Instead of formulating meaningful visions for where humankind will be in 2050, they repackage nostalgic fantasies about the past,” he said. “And there’s a kind of competition: who can look back further. Trump wants to go back to the 1950s; Putin basically wants to go back to the Czarist Empire, and you have the Islamic State that wants to go back to seventh-century Arabia. Israel — they beat everybody. They want to go back 2,500 years to the age of the Bible, so we win. We have the longest-term vision backwards.”

 

●‘There is no predetermined history.’

 

We’re now living with the collapse of the last story of inevitability,” he said. The 1990s weres flush with ideas that history was over, that the great ideological battle of the 20th century was won by liberal democracy and free-market capitalism.

 

This now seems extremely naïve, he said. “The moment we are in now is a moment of extreme disillusionment and bewilderment because we have no idea where things will go from here. It’s very important to be aware of the downside, of the dangerous scenarios of new technologies. The corporations, the engineers, the people in labs naturally focus on the enormous benefits that these technologies might bring us, and it falls to historians, to philosophers and social scientists who think about all of the ways that things could go wrong.”

 

In a complex, interconnected world, morality needs to be redefined.

 

To act well, it’s not enough to have good values,” Mr. Harari said. “You have to understand the chains of causes and effects.”

 

Stealing, for example, has become so complicated in today’s world. Back in biblical times, Mr. Harari said, if you were stealing, you were aware of your actions and their consequences on your victim. But theft today could entail investing — even unwittingly — in a very profitable but unethical corporation that damages the environment and employs an army of lawyers and lobbyists to protect itself from lawsuits and regulations.

 

Am I guilty of stealing a river?” asked Mr. Harari, continuing his example. “Even if I’m aware, I don’t know how the corporation makes its money. It will take me months and even years to find out what my money is doing. And during that time I’ll be guilty of so many crimes, which I would know nothing about.”

 

The problem, he said, is understanding the “extremely complicated chains of cause and effect” in the world. “My fear is that homo sapiens are not just up to it. We have created such a complicated world that we’re no longer able to make sense of what is happening.”

 

(貼り付け終わり)


※私の仲間である石井利明さんのデビュー作『福澤諭吉フリーメイソン論』が2018年4月16日に刊行されます。大変充実した内容になっています。よろしくお願いいたします。

fukuzawayukichicover001

(仮)福澤諭吉 フリーメイソン論

 

(終わり)


アメリカ政治の秘密日本人が知らない世界支配の構造【電子書籍】[ 古村治彦 ]

価格:1,400円
(2018/3/9 10:43時点)
感想(0件)