アノニマスの見解 Ep.8: 快楽の牢獄

Hello internet,
ネットのみんなさん、こんにちは。

In our last video we talked about decentralization, alongside anonymity and encryption, the three pieces of the Triforce of Internet Freedom. We’ve used several videos, in fact, to talk about how you can protect yourself online. But I think it’s time we spent a little more time talking about exactly why you should be protecting yourself, and what from.
最後のビデオに、分散化、匿名性、そして暗号化について語りました。「インターネット自由のトライフォース」の3ピースでした。実は、様々なビデオでオンラインプライバシー保護方法について語りました。でも何故保護すべきか、そして何から保護すべきかについて語るときがついに来ました。

The obvious answer is government surveillance, which certainly is a threat to your freedom. Political freedoms can’t exist when every action and every word is watched by government spies. But surveillance is only the most obvious threat, and the one most people at least try to avoid. The bigger threat is one that almost nobody recognizes, even as they actively seek it out and enjoy it. What you should be protecting yourself against isn’t just what you fear. It’s what you love.
当然ですが、第一の答えは「政府による監視」ですね。確かにそれは自由を脅かすものです。一挙手一投足が政府によって監視されるとなれば、そこに政治的自由は存在しない。でもそういう監視は最も明らかな危険性であり、ほとんどの人は避けたいと思っているでしょう。その一方で、さらに大きな脅威には皆気づかない。その脅威は娯楽として採用されます。怖がるものだけではなく、楽しむものからも保護しなければならない。

With that said, let’s step back and introduce a few ideas we need to understand, starting with the concept of the “Filter Bubble”.
まずちょっと足を止めて、理解すべき様々な概念を紹介したいと思います。先ずは「フィルターバブル」から始めましょう。

The Filter Bubble is a term coined by internet activist Eli Pariser around 2010, describing a phenomenon of online isolation caused by personalized search algorithms. These algorithms gather data like user location, past click-behavior, and search history, and then feeds back information it thinks users would like based on their past behavior. Over time, the algorithm filters out information it thinks the user won’t like and promotes what it thinks they will. Soon the user is surrounded only by information they agree with, while information they disagree with simply disappears.
「フィルターバブル 」はインターネット活動家であるイーライ・パリサーが2010年ごろに作った新語です。フィルターバブルとは、インターネット検索サイトやSNSのパーソナライズされたアルゴリズムによって生じるユーザー孤立化の現象です。そういうアルゴリズムが、ユーザーの情報(所在地、過去のクリック履歴、検索履歴など)に基づいてユーザーが見たい情報だろうと推定した検索結果を出す。時間と共に、ユーザーは嗜好に合わない情報から隔離され、実質的に彼ら自身の文化的、思想的な皮膜(バブル)の中に孤立するようになっていく。ついに、ユーザーに見える情報はすべて観点に合うものだけです。観点に合わない情報が消えます。

It’s important to remember that the user never sees this system. Usually they don’t even know it exists. From their perspective, their timeline and search results are simply always things they want or agree with. When this information is funny cat videos or food photos, it may not seem like such a big deal. But increasingly, social media platforms like Facebook, Twitter, and YouTube are becoming places where people engage with politics and get their news. And when black box algorithms are deciding for you what news and political opinions you should see, the threat of information control and manipulation becomes much more serious.
こういうアルゴリズムがユーザーには見えないという事実も重要です。そもそも、アルゴリズムの存在そのものに気づかない人が多い。ほとんどのユーザーの目には、SNSタイムラインや検索結果はいつも嗜好に合う情報のみを見せるだけです。猫の動画や料理画像の場合、その情報は大したことないかもしれない。でもFacebook、Twitter、そしてYouTubeは、他のウェブサイトよりも人がニュースや政治に関わる度合いが大きい。不透明なアルゴリズムによってユーザーが見る政治思想やニュースを管理されている現状には、情報操作の重大な危険があります。

Beyond the Filter Bubble, there’s one more idea we need to understand; the Skinner Box. The idea of the Skinner Box comes from the work of American psychologist B.F. Skinner in the 1930s. Although I won’t go into his work in detail here, I recommend reading up on both him and his work on “Operant Conditioning” if you have the time. It’s interesting stuff.
フィルターバブル以外にも、もう一つの概念を知ってもらいたいと思います。「スキナー箱」という概念です。スキナー箱は1930年代にかけて、B.F.スキナーという心理学者の業績から発展しました。ここで彼の業績を詳しく説明できないですが、時間があればどうぞスキナーと「オペラント条件づけ」の作業について読んで下さい。とても興味深い話題です。

The Skinner Box is a literal box used by psychologists to experiment on animal behavior. The box usually has a lever for the animal to push, and a food dispenser to feed the animal as a reward for correct behavior. For more details on how this works, let’s turn to とらますく先生:

One of the most important lessons learned from the Skinner Box is that simply rewarding a behavior every time it’s performed isn’t an efficient way to reproduce it. Instead, rewarding behavior after a random time period has much better results, as Skinner himself pointed out:
スキナー箱から学んだ極めて重要な教訓の一つはあります。行動に毎回報酬を与えるのは条件付けに有効ではない。代わりに、不定期に報酬を与えることはより有効です。スキナーさんが言った通りに:

Skinner: The main thing is what we call “schedules of reinforcement”, what the layman calls “reward”, and you can schedule it so that a reward occurs every now and them when a pigeon does something. We usually use a response where the pigeon pecks a disc on the wall, and you can reinforce with food. But you don’t reinforce every time, you do it every tenth time, or once per minute, or something like that … and there is a good example of how you can move from the pigeon to the human case, because one of the schedules that’s very effective is what we call the “variable ratio schedule” and that is at the heart of all gambling devices and has the same effect.”
スキナー:一番重要な事は「強化スケジュール」です。平たく言えば「ご褒美」ということ。例えば鳩が正しい行動をしたら、時々褒美は与えられます。私たちの場合、正しい行動は壁にあるディスクをつつくことです。そしてエサを与えることでその行動を促進させることができます。でも毎回はご褒美を与えない。1分に1回、10回に1回、といった感じ。これは鳩の場合から人間の場合へ移行できる好例です。なぜなら非常に効果的なスケジュールは「変率強化スケジュール」だからです。そしてこれは全ての賭博の本質的核心です。

Skinner’s example of gambling is appropriate, because unfortunately the Skinner Box technique has been applied heavily in the areas of video games and social media. Gacha-style mobile games are the perfect example of this in Japan, but even overseas, more and more AAA gaming companies are putting in “loot boxes”, which employ the same technique of anticipation and random rewards.
スキナーさんが言った「賭博」の例えは残念ながらとても適切です。現代において、スキナー箱のテクニックはネットゲーとSNSにかなり適用されます。日本ではガチャのソーシャルゲームは絶好の例です。海外でも、ゲーム会社のAAAは期待感とランダム報酬を利用する「ルートボックス」を日本以上にゲームに組み込んでいる。

But it isn’t just video games. Accoring to author Adam Alter, Facebook, Twitter, and more use exactly the same techniques to keep users addicted to their platforms. Refreshing your timeline to check for Likes or Comments is mechanically the same as gambling, or playing a Gacha game. You do an action and get a variable reward, the reward in this case being social attention. And it all keeps your attention on the app, where the advertisements are.
これは、ゲームの世界だけではない。作家のアダム・アルタさんによれば、FacebookとTwitterそして他のSNS企業が同じテクニックでユーザを病みつきにしようとしている。SNSの投稿に「いいね」やコメントが来たかチェックするのはギャンブルとガチャと大して違わない。正しい行動したら、ランダム報酬が来る(この場合では、注目されることは報酬です)。その間ずっと、広告があるところにじっと見るよう条件付けされる。

This loop of Action, Anticipation, Variable Reward is the essence of the Skinner Box, and this exploitation of human psychology is what keeps you coming back long after the action itself has lost its novelty.
「行動→期待感→ランダム報酬」というループはスキナー箱の本質です。実際に興味を失ってもユーザが何度もゲームやSNSに戻ってくる理由は、こういう心理による搾取は利用されたからです。

So why is all this important? What does social media advertising or pay-to-win games have to do with surveillance and privacy? Well, the Filter Bubble and the Skinner Box are creepy and manipulative enough on their own. But their real danger lies not in how they’re used, but how they can be abused.
では、何故これを理解するべきか?SNS広告やガチャソーシャルゲームはどのように監視やプライバシーと関係あるのか?フィルターバブルとスキナー箱そのものは不気味で怪しいが、その用途は最悪の場合ではない。だが、乱用されたら、恐ろしいことになる。

The Filter Bubble is designed to study your behavior and give you what it thinks you want. But the algorithm behind this is a black box controlled by the company. With a few minor changes, it can just as easily be programmed to give you what somebody else wants you to see. You can be isolated from all opinions except those held by those in control of the algorithm.
フィルターバブルの目的は、ユーザの行動への観察に基づいて見たい情報を推定することです。でも情報を推定するアルゴリズムはSNS企業に管理され、完全に不透明です。わずかな調整を行ったら、ユーザーが見たい情報は第三者が見せたい情報になってしまう。それでユーザが他の情報から隔離され、第三者の思考に合う観点のみに囲まれる。

Once your environment is controlled, the Skinner Box takes over. The system encourages you to say, think, and do the right things, and rewards you when you do. The more you’re rewarded, the more you repeat the action. From here, the Filter Bubble and the Skinner Box form a perfect loop. You’re shown content that is designed to make you react, and provide the system with more information about what makes you react. The system learns more about how to control you with every click you make. Nowhere are you provided a choice in what you see. This can be used to make you buy anything, from instant ramen to political parties.
このように環境が支配されたら、スキナー箱がそこから続けます。第三者に望ましい行動するよう勧められて、正しい行動したら報酬は与えられる。報酬が与えられるたびに、望ましい行動を取るよう促されているのだ。その後フィルターバブルとスキナー箱は閉じたループになる。システムは反応を引き出すように作られたコンテンツを見せて、その反応を観察する。ユーザが反応するたびに、システムは少しずつユーザを方向づける方法を会得して行く。ユーザはこれに対して発言権がない。こう意思決定に影響を与えて、ユーザに何でも選ばせることができます。カップラーメンから政治家まで。

And the worst part about it is that you never think you’re being controlled. You think you’re making your own choices, but the options given to you and the information about them can be carefully controlled to guide you to the decision somebody else wants you to make.
さらに悪いのは、ユーザが意思決定は方向づけられると気づかないだろうということです。自らの意思決定だと思っていても、実は可能なオプションと入手可能な情報は最初から第三者に支配されてしまいました。

If you doubt that governments and intelligence agencies are eyeing these technologies, you need look no further than the example of Pokemon GO. Niantic, the company behind Pokemon GO, shares staff and technology with a company called “Keyhole”, which in turn received funding from In-Q-Tel, a CIA-run venture capital firm.
政府と諜報機関がこの技術には興味あるとは思えないなら、ポケモンGOを見てみればいい。ポケモンGOアプリを作った会社「ナイアンティック」は他の会社、「Keyhole Inc.」、からスタッフや技術を獲得しました。そしてKeyholeは米CIAに設立された「In-Q-Tel」というベンチャー投資会社から投資を受けました。

Even if we ignore these shady connections, what Pokemon GO can do is scary enough by itself. It’s already been proven that a rare Pokemon appearance in Central Park can draw hordes of people. And Niantic has worked together with several prefectural governments in Japan, including Fukushima, to make valuable Pokemon appear to draw in more tourists. Niantic has the power to push a button and change peoples’ decisions about whether or not they want to go somewhere. The game is now controlling the player. Stop and think about that.
こういう怪しいつながりを無視しても、ポケモンGOの機能そのものは十分怖い。NYのセントラルパークにレアポケモンが現れたから大観衆が集めたケースはすでに知られています。ナイアンティックはさらに福島県と様々な県庁と合意して、その県に観光を推進するためにレアポケモンが現れるようにしました。ナイアンティックはボタンを押すだけで、ユーザがどこかに行きたいかどうかを影響できます。ゲームはプレイヤーの動きをコントロールする。よく考えてみて下さい。

This is what we need to defend ourselves against. This is why we should guard against what we love as much as what we fear. Decentralization counters the rise of the Filter Bubble. Anonymity prevents systems from connecting your actions to your identity. And Encryption interferes with the ability of the system to study the content of your conversations and activities. Together, the Triforce of Internet Freedom breaks the loop between Filter Bubble and Skinner Box, and helps put you back in control of yourself.
これは前に言った通りの大きな脅威です。これは怖がるものだけではなく楽しむものからも保護しなければならない理由です。分散化はフィルターバブルの台頭を抑える。匿名性は行動からユーザを特定する能力を妨げる。そして暗号化は会話と活動の内容の観察を防ぐ。「インターネット自由のトライフォース」で、フィルターバブルとスキナー箱の閉じたループから抜け出せて、自らの人生をコントロールできます。

Am I telling you to quit social media? Or to stop playing Gacha or Loot Box games? Not exactly, though you can if you want, and I’d certainly encourage it. All I want you to do is be aware of these systems, and how others are trying to manipulate you. If you want to keep using them, you can choose to do so. As long as it was really you who made that choice.
SNSやガチャをやめるべきだと言う事ですか?そうではない。もちろん、やめたいと思うならそれに異存はない。私の目的はこういうシステムとその問題を意識させることだけです。自分で物事を決める自由がある。ただし、本当に自分で決めたか確認して下さいね。

This was ANONYMOUS NO KENKAI. And until next time…MACHI UKE NASAI.
これはアノニマスの見解でした。次回まで、待ち受けなさい。

Leave a Reply

Your email address will not be published. Required fields are marked *