シス基礎09インターネットとウェブ投稿集

2. 自由記述。日々の感想、悲しいこと、怒ったことなど。言い足りない人は「放課後空間言い訳帰り道」「放課後空間ダダイスト広場」にどうぞ。https://www.hokagokukan.com

7応答

ID

応答

1

対面再開期間をそろえてほしかった。おかげで一つの授業のために二時間もかけて大学に行かないといけなかったし、わざわざ対面授業だけの日にして履修を組んだ甲斐がない。しかもまだオンラインのままだったクラスは課題が出て余計大変だった。

2

授業に関係の無い質問になってしまい恐縮ですが、教授の飼っているペットが気になります。差し支えなければ是非紹介していただきたいです。

3

最近、散歩をしながら朝の情報番組をラジオで聞くという女子大生らしからぬ趣味ができました。でもそろそろ梅雨入りし、連日雨になったら散歩も思うようにできないなと考えると少し悲しいです。

4

就活で周囲が続々と内定をもらっている中で私は内定がなく、悲しいというか焦っています。

5

個人的なこだわりでハッカーやハッキングの事をクラッカー、クラッキングと言い直しています。本来ハックする、とはコンピューターに対して支配できるほどの知識、技術を言うそうで、それを悪意をもって利用する事をクラックというそうです。

6

雨萎えます

7

日本国内でコロナ対策が進まないことに憤りを感じています。このような非常事態の時のために、自分たちの上に立つ人間は後悔のないように自分たちで選ぶこと、選挙の重要性が身に染みて分かりました。

1. プレイリスト:インターネットの父ヴィント・サーフの解説(Code.org)の3番以降から1つの解説動画を選び、その日本語字幕をメモして、その項目の解説文を作成して下さい。街の声はいりませんが、なるべく省略しないように詳しくまとめてください。つまり要約ではないということです。500字以上で説明して下さい。「私」を主語にして「ですます調」でお願いします。締切は2021年6月7日午後11時30分。 プレイリスト https://www.youtube.com/playlist?list=PLzdnOPI1iJNfMRZm5DDxco3UdsFegvuB7

45応答

ID

応答

1

インターネットはオープンでパブリックなシステムです。私たちは皆、共有された配線と接続を介して情報を送受信しています。しかし、それはオープンシステムですが、依然として多くのプライベート データを交換しています。クレジットカード番号、銀行情報、パスワード、メールなどでは、このすべてのプライベートなものはどのようにして秘密にされているのでしょうか? 暗号化、スクランブル、または元のテキストを隠すためのメッセージの変更と呼ばれるプロセスを通じて、あらゆる種類のデータを秘密に保つことができます。 ここで、復号化とは、そのメッセージのスクランブルを解除して読み取り可能にするプロセスです。これはシンプルなアイデアで、人々は何世紀にもわたってそれを実践してきました。最初によく知られた暗号化方法の 1 つは、シーザー暗号でした。ユリウス・カエサルは、軍事命令を暗号化して、メッセージが敵に傍受された場合にそれを読み取れないようにしたローマの将軍、ジュリアス・シーザーにちなんで名付けられました。シーザー暗号は、元のメッセージの各文字を、アルファベットの特定のステップ数だけ下がった文字に置き換えるアルゴリズムです。その番号が送信者と受信者のみが知っているものである場合、それはキーと呼ばれます。これにより、読者は秘密のメッセージのロックを解除できます。たとえば、元のメッセージが「HELLO」である場合、シーザー暗号アルゴリズムを使用してキー 5 を使用すると、暗号化されたメッセージは次のようになります。メッセージを復号化するには、受信者はキーを使用してプロセスを逆にします。しかし、シーザー暗号には大きな問題があり、暗号化されたメッセージは誰でも簡単に解読したり解読したりすることができます。すべての可能なキーを試すことで、英語のアルファベットは 26 文字しかありません。つまり、最大で 26 個のキーを試すだけで済みます。メッセージを復号化します。現在、26 個の可能なキーを試すのはそれほど難しくありません。実行にかかる時間はせいぜい 1 時間です。今日の安全な通信は、256 ビット キーを使用して暗号化されています。つまり、あなたのメッセージを傍受する悪者のコンピュータは、キーを見つけてメッセージを解読するまで、これだけ多くの可能なオプションを試す必要があります。 100,000 台のスーパーコンピューターがあり、それぞれが毎秒 100 万のキーを試すことができたとしても、すべてのオプションを試すには、256 ビットの暗号化で保護された 1 つのメッセージをクラックするだけで、何兆年もの時間がかかります。もちろん、コンピュータ チップは毎年 2 倍の速さで半分のサイズになっています。この指数関数的な進歩のペースが続けば、今日の不可能な問題は数百年後には解決可能になり、256 ビットでは安全では不十分になります。実際、コンピューターの速度についていくために、標準のキーの長さを増やす必要がありました。良いニュースは、長いキーを使用してもメッセージの暗号化はそれほど難しくはありませんが、暗号を解読するために必要な推測の数が指数関数的に増加することです。送信者と受信者が同じキーを共有してメッセージのスクランブルとスクランブル解除を行う場合、それは対称暗号化と呼ばれます。シーザー暗号のような対称暗号化では、秘密鍵は事前に 2 人で秘密裏に合意する必要があります。それは人々にとって素晴らしいことですが、インターネットはオープンで公開されているため、2 台のコンピューターが秘密裏に「会う」ことで秘密鍵に同意することは不可能です。代わりに、コンピューターは、誰とでも交換できる公開キーと共有されない秘密キーである非対称キーを使用します。公開鍵はデータの暗号化に使用され、誰でもそれを使用して秘密のメッセージを作成できますが、秘密は秘密鍵にアクセスできるコンピューターによってのみ復号化できます。 メールボックスへの公開デポジットキーを使用して、人々は秘密鍵に同意する必要なく、安全なメッセージを交換できます。公開鍵暗号は、すべての安全性の基盤です。これには、SSL や TLS と呼ばれるセキュリティ プロトコルが含まれ、Web の閲覧時に私たちを保護します。 お使いのコンピューターは、今日、ブラウザのアドレス バーに小さな鍵や「https」の文字が表示されているときはいつでも、これを使用します。 これは、コンピューターが公開鍵暗号化を使用して、アクセスしている Web サイトと安全にデータを交換していることを意味します。 より多くの人々がインターネットを利用するようになると、ますます多くのプライベート データが送信され、そのデータを保護する必要性がさらに重要になります。 そして、コンピューターがますます高速になるにつれて、暗号化をコンピューターが破るのが難しくなるようにするための新しい方法を開発する必要があります。

2

How search Worksについて 検索をかける際検索エンジン一億以上もある情報の中からあなたの求めている結果を提示しているわけではありません。検索エンジンは定期的にウェブを事前にスキャニングしていて私たちがリアルタイムで検索をかける際に回答を用意しておきます。そのシステムはウェブというハイパーリンクの巣に定期的にスパイダーを派遣してそのスーパーリンクをどんどんたどっていきます。そして得た情報を検索インデックスという特殊なデータベースに追加するという仕組みです。検索をされる際エンジンは何を私たちが求めているのか推測しなければなりません。エンジンは各サイトを瞬時にランク付けします私達が検索をかけたワードに該当する言葉が並んでいるかどうかをチェックしたり、どれを欲しがっていて逆に何をほしがってないのかを計算します。グーグルが開発したランキングアルゴリズムはほかのウェブページとそのウェブページがリンクされているかを考慮していくことで一番関連のある検索結果を選ぶものです。多くのリンクが得られるページはそれだけ面白いと思われているものなので私たちが検索したい項目に沿っている内容である可能性が高い。つまりウェブページを作る人はアクセスしてもらうことでお金をもらうことができるのでどうすればこの検索アルゴリズムにヒットするのか定期的にその方法を探っています。何故ならより高い位置にリストされるのでよりアクセスされる可能性が増えるからです。そういったアルゴリズムを狙い信憑性のない情報が発信されないようエンジンは定期的にアルゴリズムを変えることで対処しています。

3

私が、インターネットの父ヴィント・サーフの解説動画で選んだのは、The lnternet: How Search Worksです。 ジョンさんは、Google会社でリサーチ&マシンラーニングチームを率いています。世界中のさまざまな人々が検索エンジン機能を使用して、分からない物事や、「これを調べて見たい」「このことについて興味が湧いて調べてみたい」「これを読んで驚いたからもっと追求してみたい」という重要な好奇心を、時間をかけて調べることは、人生の中でもかなり刺激的でこれからの生活や人生を左右すると思います。なので、できるだけ全ての人に平等に分かりやすく、かつ最適な答えを利用者に提示することはとても大きな使命と責任だと感じています。 アクシャヤさんは、Bing検索チームで働いています。人工知能やマシンラーニングを見始めるような時は日々の中でいくつかあるけど、ユーザーがどのように使用していくかについて議論すべき必要があります。なぜなら人は、1日の終わりは社会世界の中で何かしらの影響を与えたい生き物であるからです。例えば、火星に行くまでどのくらいの時間が調べたとしてみます。出た検索結果は、どこからの経由でその情報がきて、なぜほかの検索結果よりも上位を占めているのか気になります。まず検索する前に始めることは、検索エンジンは常にリアルタイムで私たちの検索ワードを作動させています。何億もの情報の中からウェブサイトが1分ごとに作られています。なので私たちが求めている答えに行き着くには時間がかかります。より早く見つけるために定期的にウェブをスキャニングしていて、後で私たちの役に立てるように情報を記録しています。それはどのように作動しているかと言うと、ハイパーリンクで繋がっているページのウェブが鍵となっています。ネットの中のスパイダーが私たちの為に見えないところで働いてくれているおかげで私たちはより早く効率に自分が求めている検索結果に行き着くことができるのです。また、最近では偽物の情報が出回っているということを耳にするが、それを判断するのは私たちが決めることでもあります。

4

「The Internet: HTTP & HTML」では、インターネット、そしてWebページへのアクセスや利用の仕組みについて解説されています。今回はこちらの動画を私なりに解釈して述べていきたいと思います。 まず、私たちのPCやスマートフォンなどの端末がWebページにアクセスするためアプリケーションであるブラウザに接続されます。この時、PCは何千マイルと離れた場所にあるサーバーにページの情報を要求し、サーバーはそれにHTTPという言語を使いそのページを表示します。 HTTPとはコンピュータのウェブブラウザがサーバーと通信する際使用される言語であり、これを使うことで私たちはHTMLなどを使ったページに接続、情報を閲覧することができます。また、検索フォームにブラウザから文字を入力しサーバーに送信し、サーバーから一致する情報を検索結果として送る時のやり取りもHTTPが行っています。 次にHTMLについて説明します。HTMLとはWebページのテキストや画像、動画等のURLを表示するための言語です。普段見ているWebページの題名の文字が大きく太く表示されるのも、画像や動画のURLを貼り付けて見えるようにするのもHTMLによるコーディングがなされている結果になります。画像や動画の読み込みに時間がかかるのは、ブラウザがHTTPで個別にリクエストを送り、サーバーの応答があり次第表示されるようになっているためです。 次にSNSなど個人のIDを持ってインターネットに接続する時の仕組みを説明します。今回の動画ではtumblrというSNSが例にあげられています。 TumblrのログインページにIDとして必要な情報である個人のメールアドレスとパスワードを入力すると、その入力情報がtumblrのサーバーへと送られ、ユーザー情報の照合が行われます。情報が正しいと判断された時、ログインが許可され個人のページが表示されます。  この時、ページにはcookieというWebサイトがユーザーを識別するためのID(番号)が含まれています。このcookieがあることで、tumblrはユーザーを認識し、アップデートされた際にも割り振られた番号によって自動的にユーザーを認識してくれます。  インターネットへの接続は便利であると同時に、ハッカーによる個人情報の閲覧、盗用の機会を作ってしまう危険もあるといえます。そういった被害を防ぐため、通信を暗号化するSSLやTLSと呼ばれるセキュリティレイヤーがあります。セキュリティレイヤーが使用されているWebページは、アドレスボックスの横に鍵マークがついています。 SSLやTLSを利用して通信を行うとき、認証局からCA経由で所在地の公的身分証明書のような役割のデジタル証明書が発行され、それが信用できるWebサイトであると証明されます。セキュリティレイヤーが使われていないサイトへアクセスしようとすると警告文が出るようになっています。  このようにHTTPやHTML、そしてセキュリティ機能であるSSL、TLSなどが働くことで、私たちはインターネットに接続し様々な情報交換や通信ができるのです。 参考; 

https://www.youtube.com/watch?v=kBXQZMmiA4s&list=PLzdnOPI1iJNfMRZm5DDxco3UdsFegvuB7&index=5

5

【8.The Internet : How Search Works】 検索を行う時に知らなくてはならないことを次に挙げます。それは、検索エンジンはリアルタイムであなたの検索ワードをワールドワイドウェブ上で作動させているのではないということです。インターネット上には10億以上のウェブサイトがあって、1分ごとに数百以上のウェブサイトが作られているのです。だから、もしあなたの求めている結果を見つけるために、検索エンジンがこれらすべてのサイトを見て回らなくてはならなければ、永遠に時間がかかることになります。検索結果を素早く出すために、事前に検索エンジンは定期的にウェブをスキャニングしていて、後であなたの検索に役立つように情報を記憶しています。こうすることで、検索をかけた時、検索エンジンはリアルタイムであなたにその答えを出せるようなものをすでに持っているというわけなのです。 次に、どのように作動しているかについてです。インターネットは、それぞれがハイパーリンクでつながっているページのウェブです。これらのウェブページを横切るスパイダーというプログラムがあって、情報を集めるために検索エンジンはそのスパイダーを定期的に作動させています。ハイパーリンクを見つけるたびに、全てのページを訪問するまでついていって、全体のインターネット上で見つけることができるようになります。スパイダーが訪問する各ページにおいて、検索に必要かもしれない情報を記録するために検索インデックスと呼ばれる特別なデータベースへその情報を追加します。 では、検索エンジンはどのように結果をもってくることができるのでしょうか。「火星に行くにはどのくらいかかる?」と質問したとき、検索エンジンは、検索インデックスにあるそれらの単語一つ一つを探して、その単語が含まれているインターネット上のすべてのページのリストを素早くゲットします。しかし、これらの単語を検索するだけだと数百万ものページがでてきてしまうので、検索エンジンはまずどの結果があなたに見せるのに適しているのかを決める必要があります。この部分がトリッキーなのですが、検索エンジンはあなたが何を探しているのかを推測しなくてはならないのです。それぞれの検索エンジンは独自のアルゴリズムを使っていて、あなたが欲しいと思っているものをベースにしてページをランク付けます。検索エンジンのランキングアルゴリズムは、検索ワードがページのタイトルに表示されているかをチェックして、どのページをあなたが見たがっていてどれを見たがっていないのかを決めます。 Googleは、一番有名なアルゴリズムを開発しましたが、それはどのくらい他のウェブページがそのページにリンクされているかを考慮することで一番関連のある検索結果を選びます。多くのウェブサイトがそのウェブを面白いものだと思っているのであれば、それはもしかしたらあなたが探しているものである可能性が高いということです。「ページランク」と呼ばれるこのアルゴリズムはウェブページをランク付けするからではなく、その発明者でありGoogleの創設者の一人でもあるラリー・ページに由来しています。 だいたいの場合、訪問されることでウェブサイトはお金を稼ぐことができるので、スパムの発信者は、どうやって検索アルゴリズムを操作できるのか定期的にその方法を探っています。そうすれば、検索結果でより高い位置にリストされることになるからです。検索エンジンは、定期的にアルゴリズムを更新することで、結果の上部に信ぴょう性のないサイトやフェイクサイトが来ないようにしています。最近では、これらのページに信ぴょう性がないかどうかは、ウェブアドレスを見て信頼できるソースであるのかをあなた次第で決めることができます。 検索プログラムは、アルゴリズムを改善するために常に進化し続けています。そうすることで、他の競合他社よりも早くより良い結果をもたらすことができるようになるのです。今日の検索エンジンは、検索をしぼりこむのに明確に提示していないような情報さえも使用することができます。だから例えば、「ドッグ・パーク」へ検索をかけた場合、多くの検索エンジンではあなたの近くにある全てのドッグ・パークを検索結果として示すでしょう。たとえあなたが自分の位置情報を入力していなくてもです。 現代の検索エンジンは、ページにある単語以上のことを理解できるようになっていますが、それはあなたが探しているものに対して最適な結果を表示するためです。例えば、「速いピッチャー」の検索をかける場合、検索エンジンはあなたがアスリートを探しているのだということをわかっています。しかし、もし「大きいピッチャー」という検索をかけたらキッチン用品のオプションを表示するかもしれません。 最後に、単語をよりよく理解するために、人工知能の一種であるマシンラーニングの話をします。これによって、検索アルゴリズムがページ内の単語や個別の文字だけでなく、単語の基本的な意味を理解して検索をかけることができるようになります。インターネットは指数関数的に成長していますが、検索エンジンをデザインするチームが的確な仕事を行うことで、あなたが知りたい情報が常に一番上にあがってくるようにすることができるのです。

6

情報量の多さはインターネットの偉大さを表します。しかし、どのようにしてすべてのデータを私たちに届けているのでしょうか。インターネットが直接専用接続で構成するとなると、何百万人ものユーザーが参加している状態を維持することは不可能となってしまいます。ではインターネットの仕組みはどのようなものなのでしょうか。あるコンピューターから別のコンピューターへ情報が伝達される方法というのはとても興味深いものです。情報は、インターネット上で情報パケットの形となりコンピューター間で送信されます。IPパケットは様々なデジタル情報の伝送を可能とします。例えば友人に写真を送る際、画像のデータを数百、数千のパケットに分割させ、友人のコンピューターの中で一つの画像として再誕することとなります。インターネット上の使用コンピューターはルーターと呼ばれ、ネットワーク上でパケットをスムーズに移動させるトラフィックライトマネージャーの役割を果たします。ルーターは複数の最安値であるパスを通ってパケットを送信します。多くの場合、情報への最良の経路が最も直接なものとはなりません。結果的にネットワークエラーを引き起こす場合もあります。完全とはいかなくても、パケットを送信し続けることがネットワークの意味となります。これこそ、インターネットの原則である信頼性の基礎となっています。では、100%の情報が送信されることを各自とするにはどうすればよいでしょうか。ここで登場するのがTCPです。TCPはデータの送受信をパケットとして管理しています。デバイスで曲をリクエストすると、Spotifyは断片化した曲をいくつかのパケットに分けて送信します。デバイスにパケットが到着すると、TCPはすべてを格納しパケットの受信確認を行います。パケットの不足があった場合はTCPによってSpotifyから再送信が行われ、不足がないと判断されればTCPによる署名が行われます。且つTCPとルーターの素晴らしい点はこれらがスケーラブルであるということです。これらはエラーや繰り返しの影響を受けることがありますが、ルーターが増加するほどインターネットへの信頼が高まるのです。更にはインターネットを、ほかの利用者へのサービスを中断することなく開発・成長させることもできます。インターネットは数十万のネットワークで構成されています。インターネットがすべての人々と互いに通信できるようにする上記のシステムは、システム同士で互いを保管することも可能としているのです。

7

※参考にしたもの:「Encryption & Public Keys」(https://www.youtube.com/watch?v=ZghMPWGXexs&list=PLzdnOPI1iJNfMRZm5DDxco3UdsFegvuB7&index=6)  ここでは、主にプライベートデータの管理について、説明されていました。  今日、私たちは自分の名前や電話番号、住所などをweb上に管理しています。これをほかの人が見れないようにするために行うのが「暗号化」と「復合化」です。この二つの考え方は、昔の皇帝が秘密裏に文章を送るために、自分と相手で「キー」という数字を決めて、そのキーのぶんアルファベットをずらして読ませたことから来ています。これをシーザー暗号といったそうです。キーを知らない人が文章を読むと、ただのアルファベットの羅列ということです。ただ、これだと最大26通りのキーを試せば解読されてしまいます。だから、キーを「123」などというようにして、一律にズラすものでなくせば、試さなければならない通りが莫大に増えて、セキュリティの強度が増します。現在、安全な通信をするためには256桁のキーを設定する必要があるそうです。  ただ、それでも加速度的に進歩するコンピュータの手にかかれば、解読されてしまうようです。だから「公開鍵」と「秘密鍵」を用意します。「公開鍵」は、誰にでも公開されているキーのことで、これによってメッセージを送ったりできるようです。その送られたメッセージを確認するために要るのが「秘密鍵」です。このようにキーの成す役割を分けることで、セキュリティの強度が増すようです。  ただ、それでも指数関数的に進歩を続けるスーパーコンピュータの前には、解読が容易になってしまう日も訪れてしまいます。だから、アイデアを働かせて、セキュリティは考えていかなくてはならないということです。

8

「The Internet: How Search Works」(上から8つ目) 私はGoogleでリサーチ&マシンラーニングチームを率いているジョンだ。世界中の人たちが検索エンジンを使って、ささいな疑問や驚くほど重要な疑問を調べてるのってかなり刺激的なものだと思う。だから出来る限り最適な答えを彼らに提示することはとても大きな責任だと思っている。 私はBing検索チームで働いているアクシャヤ。人工知能やマシンラーニングを見始めるような時はたくさんあるけど、ユーザーがどうやって使用していくのかについて議論する必要がある。だって、一日の終わるには社会に何らかの影響を与えていたいもの。単純な質問をしてみましょう。火星へ行けるまではどのくらいかかる?これらの検索結果はどこから来たものでなぜ他の回答よりもこれらが最初にリスト化されているのか? まずはどうやって検索エンジンがあなたの検索に対して結果を出しているのか見てみようか。検索を行うときにまずはじめに知らなくちゃいけないことは、実際検索エンジンはリアルタイムであなたの検索ワードをワールドワイドウェブ上で作動させているのではないこと。それゆえ、10億以上のウェブサイトがインターネット上にあって、数百以上のウェブサイトが1分ごとの作られているってこと。だから、もしあなたの求めている結果を見つけるために検索エンジンがこれら全てのサイトを見て回らなくちゃならなければ永遠に時間はかかる。検索結果を素早く出すために事前に検索エンジンを定期的にウェブスキャニングしていて、後であなたの検索に役立つような情報を記録している。こうすることで、「火星に行く」ことについて検索を書ける場合、検索エンジンはリアルタイムであなたにその答えを出せるようなものを既に持っているというわけ。 どのように作動しているのかを見てみましょう。インターネットは、それぞれがハイパーリンクで繋がっているページのウェブね。これらのウェブページを横切るスパイダーというプログラムがあるんだけど、情報を集めるために検索エンジンはそのスパーダーを定期的に作動させている。ハイパーリンクを見つけるたびに全てページを訪問するまで付いていって、全体のインターネット上で見つけることができるようになる。スパイダーが訪問する各ページにおいて検索に必要かも知れない情報を記録するために、検索インデックスと呼ばれる特別なデータベースへその情報を追加する。 では、先程の検索に戻ってどのように検索エンジンが結果を持ってくることができるのかを見てみよう。「火星に行くにはどのくらいかかる?」と質問した時検索エンジンは、検索インデックスにあるそれらの単語一つ一つを探してその単語が含まれているインターネット上の全てのページのリストを素早くゲットする。だけど、これらの単語を検索するだけだと数百万ものページが出てきてしまうので、検索エンジンはまず始めにどの結果が一番あなたに見せるのに適しているのかを決める必要がある。この部分がトリッキーなんだ。だって検索エンジンはあなたが何を探しているのかを推測しなくちゃならないからね。それぞれの検索エンジンは独自のアルゴリズムを使っていて、あなたがほしいとおもっているものをベースにしてページをランク付ける。検索エンジンのランキングアルゴリズムは、検索ワードがページのタイトルに表示されているかをチェックして、その隣同士に全ての単語が並んでいるのかどうかをチェックしたり、あるいはどのページをあなたが見たがっていてどれを見たがっていないのかを決められるような他の計算をして数字を求めたりする。Googleは一番有名なアルゴリズムを開発したんだけど、それはどのくらい他のウェブページがそのページにリンクされているかを考慮することで一番関連のある検索結果を選ぶ。アイデアとしては多くのウェブサイトがそのウェブサイトを面白いものだと思っているのであれば、それはもしかしたらあなたが探しているものである可能性が高い。「ページランク」と呼ばれるこのアルゴリズムはウェブページをランク付けするからではなく、その発明者、ラリー・ページに由来している。Google創設者の一人だね。大体の場合、訪問されることでウェブサイトはお金を稼ぐことができるので、スパムの発信者はどうやって検索アルゴリズムを操作できるのかを定期的にその方法を探っている。そうすれば、検索結果でより高い位置にリストされることが可能になるからね。検索エンジンは定期的にアルゴリズムを更新することで結果の上部に信憑性のないサイトやフェイクサイトが来ないようにしている。最近ではこれらのページに信憑性がないかどうかはウェブアドレスを見て、信頼できるソースであるのかどうかを決めるのはあなた次第でもあるんだけど。 検索プログラムは、アルゴリズムを改善するために常に進化し続けている。そうすることで、他の競合社よりも素早くより良い結果をもたらすことができるように。今日の検索エンジンは、検索を絞り込むのに明確に提示していないような情報さえも使用することができる。だから例えば、「ドッグ・パーク」へ検索を書けた場合、多くの検索エンジンではあなたの近くにある全てのドッグパークを検索結果として表示するだろう。あなたが自分の位置情報を入力していなくてもね。現代の検索エンジンは、ページにある単語以上のことを理解できるようになっているけれど、それはあなたが探しているものに対して最適な結果を表示するためなの。例えば「早いピッチャー」の検索をかける場合、検索エンジンはあなたがアスリートを探しているのだということを分かっている。だけどもし「大きなピッチャー」という検索をかけたら、キッチン用品のオプションを表示するかもしれない。単語をより良く理解するためにもマシンラーニングというものを使っている。人工知能の一種だよ。これによって検索アルゴリズムがページ内の単語や個別の文字だけじゃなく、単語の基本的な意味を理解して検索をかけることができるようになる。インターネットは指数関数的に成長しているけど、検索エンジンをデザインするチームが的確な仕事を行うことで、あなたが知りたい情報が常に一番に上がってくるようにすることができる。

9

 私はプレイリストの7つ目の動画、『The Internet: Cybersecurity & Crime』(https://youtu.be/AuYNXgO_f3Y)を視聴しました。動画ではサイバーセキュリティの専門家がジェーン氏とパリサ氏がセキュリティの重要と脅威とその現状について解説しています。  サイバー犯罪は現在社会で多くの問題を引き起こしており、クラッキングによるクレジットカードの情報の不正入手、個人情報の取引などはもちろん、ドローンのハイジャック、ウラン濃縮に使用される核遠心分離機も同じくクラッキングにより不正に操作されるなどサイバー犯罪の規模は大きくなりつつあります。また、ジェーン氏によると、次回の大戦があるとすれば、通常兵器のみならず、コンピューターによる生活インフラへの干渉などサイバー空間による攻撃が予想されるなど、インターネット技術に依存している今日ではよりサイバーセキュリティへの高い意識が求められると言います。  サイバー犯罪の代表例として、コンピューターウイルス、サービス拒否攻撃、フィッシングなどがあり、それらは主にテロリスト、或いは技術を自慢したい一般人によるものとされておりソフトウェアやハードウェアの脆弱性を攻撃されるか、我々ユーザーの意図しない決定、操作により引き起こされます。  コンピューターウィルスは人から人に感染するウィルスと同じく、コンピューターに侵入し、プログラムを展開する事で機能し、ユーザーやコンピューターに害を及ぼします。多くの場合、ウィルスはクリーンなアプリケーションやシステムを装いユーザーをだましインストールされる事が多く、特にセキュリティシステムのアップデートを装い、騙されたユーザーが自らウィルスをダウンロードしてしまうケースが多く確認されているようです。また、悪質なクラッカーが直接コンピューターに侵入し許可なしにインストールされる場合もあります。コンピューターウィルスに感染した場合、保存しているファイルを消去したり、盗まれる事が予想されます。  また、コンピューターウィルスに感染すると悪質なクラッカーがユーザーのコンピューターを自動的に制御できるようになります。そうした技術を悪用して行われるのがサービス拒否攻撃(Distributed Denial of Service:DDoS攻撃)であります。DDoS攻撃はコンピューターウィルスに感染した数百万に及ぶコンピューターをBot netと呼ばれるデジタルアーミーとして使用、膨大なパケットを企業が運営するwebサイトのサーバーに送り付けサーバーをダウン、或いはwebサイトを乗っ取ります。  また、サイバー犯罪の代表的な手口としてフィッシングもまた大きな被害を引き起こしています。アカウントへのサインインなどを装った偽のメールをユーザーに送り付け、メールアドレス、パスワードなど極めて機密性の高い個人情報をだまし取ろうとすることからフィッシング(釣り)と言われ、これらの情報を不正入手したサイバー犯罪者たちはユーザーのアカウントにログインしデータやクレジット情報を盗みます。  今日の社会ではインターネットの法整備が進み、充実したサイバー軍など我々の生活を守る政府機関なども登場していますが、パリサ氏によるとそれらは充分ではなく、クラッキングなどサイバー犯罪が起こる場合、90%はユーザーによるミス、つまり人災でありシステムに原因がある事は少ないと言います。そのことからパリサ氏はセキュリティに対する意識を高め身を守るためにやるべき事を行い、また高度に進化する技術の変化に対応する事も重要だと言います。

10

検索を行うときにまず始めに知らなくてはいけないことは、検索エンジンはリアルタイムであなたの検索ワードをワールドワイドウェブ上で作動させているのではないことです。それゆえ、10億以上のウェブサイトがインターネット上にあって数百以上のウェブサイトが1分ごとに作られています。だからもし、求めている結果を見つけるために検索エンジンがこれら全てのサイトを見て回るとなると永遠に時間がかかります。検索結果を素早く出すために事前に検索エンジンは定期的にウェブをスキャニングしていて後で検索に役立つような情報を記録しています。こうすることで、検索をかける場合、検索エンジンはリアルタイムでその答えを出せるようになっています。どのように作動しているのかというと、インターネットは、それぞれがハイパーリンクで繋がっています。これらのウェブページを横切るスパイダーというプログラムが情報を集めるために検索エンジンは、スパイダーを定期的に作動させています。スパイダーが訪れる各ページにおいて検索に必要かも知れない情報を記録するために検索インデックスと呼ばれる特別なデータベースへその情報を追加します。何か質問をしたとき検索エンジンは、検索インデックスにあるそれらの単語を一つ一つ探してその単語が含まれているインターネット上の全てのリストを素早くゲットすします。しかし、これらの単語を検索するだけでも数百万ものページが出てきてしまうので検索エンジンは、まず始めにどの結果が一番あなたに見せるのに適しているのかを決める必要があります。それぞれの検索エンジンは独自のアルゴリズムを使って欲しいと思っているものをベースにしてページをランクづけします。検索エンジンのランキングアルゴリズムは検索ワードがページのタイトルに表示されているかをチェックしてその隣同士に全ての単語が並んでいるのかどうかをチェックしたりあるいはどのページを見たがっていてどれを見たがっていないのかを決められるように計算しています。グーグルは一番有名なアルゴリズムを開発していてそれは、どのくらい他のウェブページにリンクされているかを考慮することで一番関連のある検索結果を選ぶというものです。ページランクと呼ばれるこのアルゴリズムは、ウェブページをランク付けするからではなく発明者の名前に由来しています。今日の検索エンジンは、検索を絞り込むのに明確に提示していないような情報さえも使用することができます。例えば、ドッグ・パークへ検索をかけた場合、多くの検索エンジンでは、自分の位置情報を入力していなくても近くにある全てのドッグ・パークを検索結果として表示します。現代の検索エンジンは、最適な結果を表示するためにページにある単語以上のことを理解できるようになっています。例えば、速いピッチャーの検索をかける場合、検索エンジンはアスリートを探しているということが分かっているが、もし、大きいピッチャーという検索をかけたらキッチン用品のオプションを表示するかもしれません。単語をより理解するためにも機械学習が利用されています。インターネットは指数関数的に成長していますが、検索エンジンはデザインするチームが的確な仕事を行うことで知りたい情報が常に一番にあがってくるようにすることできます。

11

「私が心配しているのは、アドレス空間が32ビットであることだ。これでは43億個の終端しかサポートできない。1973年当時はそれで十分だと思ったが、2011年にもともとのインターネットアドレスの在庫は枯渇した」とサーフ氏は話します。では、なぜ、1998年にIETFが128ビットのインターネットアドレス空間を採用して43億個から340澗個(340兆の1兆倍の1兆倍)の端末をカバーできるほど拡張されたのに、インターネットはIPv6に移行していないのか? 「IPv6は普及していない」というのがサーフ氏の答えだ。IPv6対応のソフトウェアはOSやルータにインストールされているが、「ISPがIPv6の対応に消極的だ。インターネットアドレス空間を拡張する手段はIPv6以外にないため、これは絶えず問題になっています。

12

プレイリスト八個目 ジョンはGoogleでリサーチとマシンラーニングチームを率いています。世界中の人たちが検索エンジンを使ってささやかな疑問や驚くほど重要な疑問を調べているのってかなり刺激的なものだと思っている。なので彼はできる限り最適な答えを彼らに提示するのは大きな責任だと思っています。アクシャヤはBing検索チームで働いており、人工知能やマシンラーニングを見始めるときはたくさんあるけど、ユーザーがどうやって使用していくのかについて議論すべきと考えている。彼女は一日の終わりには社会に何らかの影響を与えていたいと考えています。「火星へ行けるまでどれぐらいかかる?」という質問の検索結果がどこからきて、なぜほかの解答よりもこれらが最初にリスト化されているのでしょう。まずはどうやって検索エンジンがあなたの検索に対して検索結果を出しているのか考えてみます。検索を行うときにまず初めに、実際、検索エンジンはリアルタイムであなたの検索ワードをWWW上で作動させているのではないということ、それゆえ10億以上のウェブサイトがインターネット上にあって、数百以上のウェブサイトが1分ごとに作られているということを知らなくてはいけません。だから、もしあなたのもとめている結果を見つけるために、検索エンジンがすべてのサイトを見て回らなくてはならないとなると、永遠に時間がかかってしまします。検索結果を素早く出すため、事前にウェブをスキャニングしていて、後で私たちの検索に役立つ情報を記録しています。こうすることで「火星に行く」という検索をかける場合、検索エンジンはリアルタイムで私たちに答えを出せるようなものをすでに持っています。インターネットはそれぞれがハイパーリンクでつながっているページのウェブで、これらのウェブページを横切るスパイダーというプログラムがあるのですが、情報を集めるために検索エンジンは、そのスパイダーを定期的に作動させています。ハイパーリンクを見つけるために、すべてのページを訪問するまでついて行って全体のインターネット上で見つけることができるようになります。スパイダーが訪問する各ページにおいて検索に必要かもしれない情報を記録するために検索インデックスと呼ばれる特別なデータベースへその情報を追加します。では先ほどの検索に帰って、どのように検索エンジンが結果を持ってくることができるのか、「火星に行くにはどれくらいかかる?」と質問したとき、検索エンジンは、検索インデックスにあるそれらの単語一つ一つを探して、その単語が含まれているインターネット上のすべてのページのリストを素早くゲットします。しかし、これらの単語を検索するだけだと、数百万のページが出てきてしまうので、検索エンジンはまず初めにどの結果が一番あなたに見せるのに敵割いているか決める必要があります。この部分がトリッキーで、検索エンジンは私たちが何を探しているのか推測しなくてはいけないからです。それぞれの検索エンジンは独自のアルゴリズムを持っており、あなたが欲しいと思っているものをベースに、ページにランクを付けます検索エンジンのランキングアルゴリズムは、検索ワードがページのタイトルに表示されているかチェックし、その隣同士にすべての単語が並んでいるのかどうかをチェックしたり、どのページをあなたが見たがっていて、あるいは見たがっていないのかを決めるほかの計算をします。Googleは画期的なシステムを開発し、それはどれぐらい他のウェブページが、そのページにリンクされているかを考慮することで一番関連のある検索結果を選びます。アイデアとしては、多くのウェブサイトがそのウェブサイトを面白いと思っているのであれば、もしかしたら私たちが探しているものである可能性が高いというものです。ページランクと呼ばれるこのアルゴリズムの名前は、ウェブページをランク付けするからではなく、google創設者の一人で開発者のラリー・ページに由来しています。たいていの場合、訪問されることでウェブサイトはお金を稼ぐことができるので、スパムの発信者はどうやって検索アルゴリズムを操作できるのか定期的にその方法を探っています。そうすることで検索結果のより高い位置にいることができます。検索エンジンは定期的にアルゴリズムを更新することで、検索結果の上部に信憑性のないサイトやフェイクサイトが来ないようにしています。最近ではサイトに信憑性がないかどうかやウェブアドレスを見て信頼できるソースであるのかどうか決めるのは私自身でもあります。検索プログラムは、アルゴリズムを改善するために常に進化し続けています。そうすることで、競合社よりも素早くより良い結果をもたらすことができるようになります。今日の検索エンジンは、検索を絞り込むのに明確に提示されていないような情報さえも使用できます。例えば「ドッグ・パーク」へ検索をかけた場合、多くの検索エンジンではたとえ自分の位置を入力しなくても、あなたの近くにあるすべての「ドッグ・パーク」を検索結果として出すと思われます。現代の検索エンジンは、ページにある単語以上のことを理解できるようになっているけど、それはあなたが探しているものに対して最適な結果をしめすためです。例えば「速いピッチャー」の検索をかける場合、検索エンジンはアスリートを探していることがわかっています。しかしもし「大きいピッチャー」という検索をかけたらキッチン用具のピッチャーを表示するかもしれません。単語をより理解するためにも人工知能の一種のマシンラーニングと呼ばれるものを使っています。これによって検索アルゴリズムがページ内の単語や個別の文字だけでなく単語の基本的な意味を理解して、検索をかけるようになっています。インターネットは指数関数的に成長していますが、検索エンジンをデザインするチームが的確な仕事を行うことで、あなたが知りたい情報が一番に上がってくるようにすることができます。

13

The Internet: How Search Works https://www.youtube.com/watch?v=LVV_93mBfSU&list=PLzdnOPI1iJNfMRZm5DDxco3UdsFegvuB7&index=8 火星に行けるまでにはどのくらいかかる?という質問に対し、回答結果を見るとなぜほかの回答よりもこれらが最初にリスト化されているのでしょうか?まずは、どうやって検索エンジンが検索結果に対しているでしょうか?検索エンジンはリアルタイムで検索ワードをワールドウェブ上で作動させているのではないのです。10億以上のウェブサイトがインターネット上にあって数百以上のウェブサイトが1分ごとに作られています。検索結果を出すとき、事前に検索エンジンは定期的にウェブをスキャンニングしていて後で私の検索に役立つような情報を記録しています。こうすることで「火星へ行く」ことについて検索をかける場合、リアルタイムで私にその答えを出せるようなものをすでに持っているというわけです。インターネットはそれぞれがハイパーリンクでつながっているページのウェブです。これらのウェブページを横切るスパイダーというプログラムがあり、情報を集めるために検索エンジンは、そのスパイダーを定期的に作動させています。ハイパーリンクを見つけるたびにすべてのページを訪問するまでついていき全体のインターネット上で見つけることができるようになります。スパーダーは訪問するたび検索に必要かもしれない情報をお記録するために検索インデックスと呼ばれる特別なデータベースへその情報を追加します。検索エンジンがどうやって結果を持ってくるのか? 「火星に行くにはどのくらいかかる?」と質問した時、検索エンジンは、検索インデックスにあるそれらの単語1つ1つを探してその単語が含まれているインターネット上のすべてのページを素早くゲットします。しかし、これらの単語を検索するだけだと数百万ものページがでてきてしまうので検索エンジンはまず始めにどの結果が一番私に見せるのに適しているのか決める必要があります。この部分がトリッキーであり、検索エンジンは何を探しているか推測しなければならないからです。それぞれの検索エンジンは独自のアルゴリズムを使っていて私がほしいと思うものをベースにページにランクを付けます。検索エンジンのランキングアルゴリズムは検索ワードがページのタイトルに表示されているかをチェックしてその隣同士に単語が並んでいるかどうかをチェックしたりあるいはどのページが見たがっているか、見たがっていないかを決められるようなほかの計算をする数字を求めたりします。Googleが開発したアルゴリズムはどのくらいほかのウェブページがそのページにリンクされているかを考慮することで一番関連のある検索結果を選びます。アイデアとしては多くのウェブサイトがそのウェブサイトを面白いと思っているのであればそれはもしかしたら私が探しているものである可能性が高いということです。「ページランク」と呼ばれるこのアルゴリズムはウェブページをランク付けするからでなく、その発明者、ラリー・ページに由来しています。多くの場合、訪問されることでウェブサイトはお金を稼ぐことができるのでスパムの発信者はどうやって検索アルゴリズムを操作できるのか定期的にその方法を探っている。そうすれば検索結果でより高い位置にリストされることが可能になるからです。 検索エンジンは定期的にアルゴリズムを更新することで結果の上部に信憑性のないサイトやフェイクサイトがこないようにしています。最近ではこれらのページに信憑性がないかどうかはウェブアドレスを見て信頼できるソースであるのかどうかを決めるのは自分次第でもあります。検索プログラムは、アルゴリズムを改善するために常に進化し続けています。そうすることで、ほかの競合社よりも素早くより良い結果をもたらすことができます。今日の検索エンジンは、検索を絞り込むのに明確に提示していないような情報さえも使うことができます。例えば、「ドッグ・パーク」へ検索をかけた場合、多くの検索エンジンは私の近くにあるすべてのドッグ・パークを検索結果して表示します。現代の検索エンジンは、ページにある単語以上のことを理解できるようになっています。それは私が探しているものに対して、最適な結果を表示するためです。例えば、「速いピッチャー」の検索をかける場合はアスリートのことだと理解し、「大きいピッチャー」と検索をかけたらキッチン用品のオプションを表示するかもしれません。単語をより良く理解するためにもマシンラーニングというものを使っています。人工知能の一種です。これにより検索アルゴリズムがページ内の単語や個別の文字だけでなく、単語の基本的な意味を理解して検索をかけるようになります。 検索エンジンをデザインするチームが的確な仕事を行うことで私たちが知りたい情報が一番に上がってくるようになっています。

14

私は課題のプレイリストの5番の解説動画 The Internet: HTTP&HTMLを選びました。その解説動画の日本語字幕をメモすると以下のようになりました。  Webブラウザを見てみましょう。Web ページにアクセスするために使用するアプリケーションであるWebブラウザを開きます。次にロケーターを表すWebアドレスを印刷します。タンブラー.comなど、行きたいサイトの情報です。 Webブラウザでアドレスを入力し、Enter をクリックします。あなたのコンピュータはサーバーからは通常何千マイルも離れています。その瞬間、ミリ秒以内に、コンピュータはサーバーに場所を尋ねます。コンピュータがサーバーから戻って、コンピュータ言語と呼ばれる言語を駆使してコンピュータと通信します。  HTTPは、Hypertext Transfer Protocol の略です。これは、コンピュータが別のコンピュータからドキュメントを要求するために使用する言語と考えることができます。あなたのコンピュータ間の転送を受け取った場合、インターネット上のWebサーバーは、フェッチリクエストと呼ばれるもので構成されています。そして、それは単にgetという単語と、要求したドキュメントの名前です。Tumblrにログインしてログインページをロードしようとすると、あなたがすることは、Tumblrサーバーにアクセスリクエストを送信することだけです。GET・ログインこれは、各コードが必要であることをTumblrサーバーに伝えます、これでTumblrページにログインできます。  HTMLはハイパーテキストマークアップ言語の略です。これは、Webブラウザのページの見た目をどのように見せるかを指示する為に使用する言語と考えることができます。大きなドキュメントである Wikipedia のようなものを考えるとHTMLは、<STRONG>タイトルを大きく太字にするために使用する言語です。<FONT>は正しいフォントであり、<A>は特定のテキストを特定のページに関連付けるためのものです。テキストを太字または斜体にするには<I>OR<EM>を使います。ページの中央に画像を配置するには<IMG ALIGN=”MIDDLE”>、画像を右揃えにするには<IMG ALIGN=”RIGHT”>、画像を左揃えにするには<IMG ALIGN=”LEFT”>を利用します。テキストはHTMLの形式でWeb ページに直接埋め込まれ、画像や動画など他のセクションはタイトル付きの別ファイルで要求する必要があります。ブラウザはURLのHTTPから個別のリクエストを送信します。それぞれ情報が入手次第展示します。Webページに多くの異なる画像が含まれている場合、それぞれが注文を構成します。HTTPは分離されており、ページの読み込みが遅いです。HTTPはWebを閲覧しているときにフェッチリクエストを使用してページをリクエストするだけではありません。フォームに入力する時や検索リクエストを入力する時などに、情報を送信することがあります。ブラウザは、リレーリクエストを使用して、この情報をプレーンテキストでWebサーバーに送信します。 Tumblrにログインしているとします。最初に削除をリクエストします。いくつかのデータが添付されているTumblrログインページへの公開/移行のリクエストです。そのデータには、あなたのメールアドレスとパスワードが含まれています。このデータはTumblrサーバーに送られ、Tumblrサーバーはそれをよくチェックして、あなたがDavidであることを確認します。Davidとしてログインが成功したことを示すWebページがサーバーに返されます。しかし、そのWebページには、目に見えないCookieがいくつか添付されています。Cookieはブラウザが表示、認識、保存するものです。これはWebサイトがユーザーを記憶できる唯一の方法であるため重要です。 クッキーはTumblrのタグのようなもの。それはあなたがDavidであることを示す番号です。Webブラウザにはこの番号が表示されます。そして次にTumblrをアップデートした時、サーバーは自動的にあなたを識別し、Tumblrサーバーへのリクエストに識別番号を添付します。これで、Tumblrサーバーはブラウザからのリクエストを認識し、ID番号も表示され、私がDavidからのこの依頼であることが分かります。今、インターネットは完全に開かれています。全ての通信は共有され、すべての情報はプレーンテキストで送信されます。これにより、ハッカーはインターネット経由で送信する個人情報に簡単にアクセスできるようになります。しかし、安全なサイトはこれが起こらないようにします SNOOPING&TAMPERING  SECURECHANNELと呼ばれるものを使用して、ブラウザに安全なチャネルを介して通信するように依頼することにより、安全に通信することが出来きます。Secure Sockets LayerおよびTransport Layer Securityに依存します。通信にラップされたセキュリティレイヤーとしてのSSLとTLSがあり、スパイ行為や偽造から保護するために利用されています。SSLとTLSは、ブラウザのアドレスボックスの横に小さなロックが表示されている場合はアクティブです。HTTPSプロトコルは、HTTPリクエストを確実にするために使用されます。安全に保護するためサイトがブラウザに安全な接続と対話するように要求したとき、最初に、デジタル証明書を提供します。所在地を証明する公的身分証明書のようなものです。デジタル証明書はCA経由で公開されます。そして証明書がそのWebサイトに発行されます。IDカードやパスポートを発行する政府のように。これによって発行されたデジタル証明書なしにサイトが安全な接続を開始しようとするとブラウザは警告を表示します。これがWebブラウザの基本です。 私たちが毎日目にするのはインターネットの一部です。要するにHTTPS&DNSです。 HTMLの送受信を管理するメディアファイル、またはWeb上のあらゆるものです。これを可能にするのはTCP/IPです。そして、情報を小さなパケットに分割して送信するルーターネットワークです。これらのパケットは、電線を介して送信されるダイオードと一連の1と0で構成されています。

15

4How The Internet Works:こんにちは。私の名前はLynnで、ここSpotifyの開発者エンジニアです。私は、インターネットの信頼性を当然のことと考えることが多いことを初めて認めました。情報量の多さはインターネットのすごさを物語る。しかし、どのようにして全てのデータを確実にあなたに届けることができるのでしょうか。Spotifyで音楽を流すとします。お使いのコンピューターがSpotifyサーバーに直接接続されているようです。そのあと、Spotifyは専用の直接回線で送信します。しかし、実際にはそれはインターネットの仕組みではありません。インターネットが直接専用接続で構成されている場合、それは何百万人ものユーザーが参加している状態を維持することは不可能。特に、全てのワイヤーがコンピューター上で常に機能するという保証はないため、代わりにデータは直接でない方法でインターネット上を移動します。70年代初頭に、私のパートナーであるボブはインターネットと呼ばれるものを設計しました。ボブと私は、インターネットプロトコルを設計する責任と機会を引き受けました。だから私たちは今までずっと、インターネットの成長と革命に参加することを主張してきました。あるコンピューターから別のコンピューターに情報が伝達される方法は非常に興味深い。決まった道をたどる必要はない。実際、あるコンピューターと別のコンピューターを切り替える途中で、パスが変わる可能性があります。情報は、インターネット上で情報パケットの形でコンピューター間を移動します。パッケージは、インターネット上のある場所から別の場所に送信されます。車である場所から別の場所に移動するように交通状況や道路状況により、お選びいただく場合があります。または、場合によって同じ場所に行くために別の道を選択する必要があります。車であらゆる種類のものを運ぶことができます。IPパケットで様々なデジタル情報を伝送可能である。一方で限界がある。例えば、宇宙船を動かしたい場合、建てる場所から打ち上げる場所まで1台のトラックでは不十分なので、それをパーツで分けて、トラックの集団を利用して輸送します。それらは全て異なるルートを辿り、異なる時間に目的地に到着する可能性があります。ただし、全ての部品が到着したら、それらを元に戻して、打ち上げの準備が整った完全な車両を形成します。オンラインにおいても、同様に機能します。大きな写真を友達に送る、もしくはサイトにアップロードしたい場合、その画像は数千万ビットで構成されている可能性があります。多すぎて同梱発送が難しいのです。データがパソコン上にあるので、パソコンから画像を素早く送信できます。それらをパケットと呼ばれる数百または数千の小さな部分に分割します。車やトラックとは異なり、これらのパッケージにはドライバーいないため、ルートを選択できません。しかし、各パッケージにはそのパッケージの出所と目的地のインターネットアドレスが記載されているのです。インターネット上の私用のコンピュータはルーターと呼ばれ、次のように機能します。ネットワーク上でパケットをスムーズに移動させるトラフィックライトマネージャーなのです。道路が混雑している場合、ここのパケットはパスに沿って移動するかもしれません。目的地に着く時間が異なる場合もあれば、順序付けられていない場合もあります。これがインターネットプロトコルの一部としてどのように機能するか説明しましょう。各ルーターは複数のパスをたどってパケットを送信します。データごとに利用可能な最も安いパスを選択します。パッケージの宛先IPアドレスに応じます。ここでの最安値は価格の問題ではありません。パスオプションがあると、ネットワークエラーが発生しやすくなります。どこかでエラーが生じても、ネットワークではパケットを送信し続けることができます。これは、インターネットの主な原則である信頼性の基礎です。TCPは、データの送受信をパケットとして管理します。デバイスで曲をリクエストすると、Spotifyは断片化した曲をいくつかのパケットに分けて送信します。パケットが到着すると、TCPは全てを格納し、受信した各パケットの受信確認を送信します。全てのパッケージが存在する場合には、TCPが領収書に署名し、完了です。逆に不足している場合には、署名されません。曲がうまく再生されず、一部のトラックが欠損している可能性があるからです。不足しているパッケージについては、Spotifyが再送信をして補います。こうしてTCPは署名し、曲の再生が始まります。ルーターの数が増えれば増えるほど、インターネットへの信頼が高まります。インターネットのサービスを中断させることなく、新たな開発にも着手できます。ルーターとコンピュータの関係は、メールの送信やWebページのアクセス、ビデオチャットなど様々な場面で活用されているのです。

16

ジェーン・マーティンさんはシマンテックのサイバーセキュリティ調査のディレクターの方の話です。今日、サイバー犯罪は社会に大きな影響を与えているそうです。個人的、財政的、さらには国家安全保障に関する問題など過去数年間で、何百もの銀行カード番号が盗まれたそうです。何千万ものコミュニティセキュリティ番号と医療記録が交渉された。核遠心分離機でさえハッキングされているとのこと。これには私も驚きました。そして、ドローンもハッキングされ乗っ取られてしまう。これらはすべて、コンピュータプログラムとハードウェアの弱点を悪用することで発生するそうです。犯罪を犯す人々は、単一のプロフィールや動機を持っていない。予測ではあるが世界的なテロリストか、自分の権利を侵害することを自慢しようと競っているディーンエイジャーの仕業だという。現在、主要国は正規軍だけでなく、十分に準備されたサイバー軍があるそうで、実際に次の世界大戦は通常兵器では終わらないかもしれないという説すら出ているようです。むしろ、コンピュータを使用して全国の水道・送電網・及び輸送システムを停止するほうが武力制圧よりも簡単で速い方法かもしれないという見解も。Gooleのセキュリティ専門家のパリサさんは複数の事件を行ったそうです。ソフトウェアを可能な限り安全にする研究です。生物のウィルスをモチーフにパソコンなどのウィルスが作成されたそうでウィルスは細胞に感染して遺伝物質を注入することで機能します。そして、それらの細胞を使って再生する。人を病気にして他人に移す。コンピュータウィルスはウィルスが実行可能プログラムであるように機能します。特に意図せずにインストールされることが多く、ユーザーやコンピュータに害を及ぼします。そのウィルスはほかのコンピュータに広がる可能性があります。ハッカーが誰かのコンピュータに感染させる方法はいくつかあるそうです。被害者がプログラムをインストールして、プログラムの目的でコンピュータをだまそうとする可能性がある。多くの場合にセキュリティのアップデートに装います。また、コンピュータがハッキングに対して脆弱である可能性もあります。ハッキングプログラムは許可なしにウィルスをインストールします。ウィルスが侵入すると、ファイルを盗んだり消去したりすることができます。また、プログラムを制御したり、他人がそのコンピュータを遠隔操作できる。ハッカーはウィルスを使用して、世界中の何百万ものコンピュータにアクセスします。サービス拒否攻撃に転用されるそう。リクエストの多いサイトを乗っ取った場合やハッキングと同時にkる倍芋サービス拒否攻撃というそうです。結果的にコンピュータが高負荷に耐え切れず、応答を停止します。ほかにも大量の迷惑メールの送信という手口があります。個人情報を盗むために行われます。フィッシングと呼ばれます。アカウントのサインインを要求し、アカウント名とパスワードを入れるとその情報が盗まれ、不正利用されるという仕組み。会社や政府がこれのための対策を講じているがまだまだ甘いのが現状のようです。どんなにセキュリティを強化してもユーザーが騙されては対応ができないということ。今日では数十億ドルもが危機に瀕しているそうです。さらに、追い打ちをかけるようにサイバー犯罪は巧妙化し、複雑化しているそうです。私たちも知識を蓄えて情報を漏らさない・与えないことが重要になります。今すぐ自分の行動をチェックしましょう。

17

The internet : How Search works 世界には無数の疑問が散らばっていますが人々はそれを、検索エンジンを使って調べてい ます。その行為にはとても重要な意味があり、その回答を人々に正確に示すことが我々の使 命であり、責任だと感じています。Bing の検索エンジンで就業している女性は、様々な最 新技術を利用するときはやり方に戸惑うと思いますが、それらを明確に分かりやすく利用 してくれるように設計する必要がありますと言いました。その成果の確認として毎日自身 は社会にどのような影響を与えたかを確認しているといいます。 これからある検索に対してどのように素早くするために動いているのかの説明をしよう と思います。それは検索をかけるときに無数にあるサイトをすべて散策するわけではなく、 時間短縮のために調べる事前に検索エンジンがスキャニングを定期的に行い自分用に記録 しているといいます。つまりすべてのサイトはハイパーリンクというものでつながってい るが、それらを横断するようにスキャンを行い情報を記録するのです。次にどのように検索 の結果につながっているのかを見ていきます。これは検索されたワードが含まれているサ イトを提示してくれるようになっているのです。しかし無数にある場合独自のアルゴリズ ム(文字の羅列順や関連性など)を使用して優先順位をつけて提示するようになっています。 また検索エンジンが定期的に自社のアルゴリズムを見直すことでスパムへの対策を行っ ています。これらのように日々最適な検索結果やウイルス対策を行うことで競合他社との 差別化を実現しています。さらには最近では機械的な検索だけではなく、単語の意味自体を 覚えさせマシン自体を高性能化させ学習させようといます。これからも的確な作業を行う ことでより要求にマッチした結果を提示してくれるようになります。

18

この動画はデータ通信の話をしている。その中でSpotifyを例にしている。Spotifyは音楽データをいくつかの小包に分けてそれぞれを色んなルートで通している。そうするとどれかのルートが混み合ってても確実にデータを送ることができる。これによって音楽をスムーズに止まることなく聞くことができている。私自身もSpotifyのユーザーである。2年間ほど使っているが音楽は色んなルートを通していることによって止まることなく再生されていて、とても便利なアプリとなっている。次にYoutubeを例に取り上げる。YouTubeとかは再生が止まる時はその小包がいくつか届いてない可能性が高い。再生させる為にはそれをまた違うルートで送らせる。そーすることによって再生が始まっていく。私自身YouTubeもよく利用するアプリである。YouTubeは好きな動画を見たい時に見る事が可能なアプリだと私は思っている。たまに小包がうまく機能していない可能性もあり動画が止まることがあるが、信頼は絶大だと思った。この動画をまとめると、多くのルートがあることによってインターネットの信頼性につながっていることが明白である。これからも沢山のルートを見つけていくことが大切である。

19

「火星に行くにはどのくらいの時間がかかる?」と検索した時、これらの検索結果はどこから来たもので、なぜ他の回答よりも最初にリスト化されているサイトがあるのでしょうか。まずはどうやって検索エンジンが検索に対して結果を出しているのかを理解していく必要があります。検索エンジンはリアルタイムで検索ワードをワールドワイドウェブ上で作動させているのではありません。それ故、10億人以上のウェブサイトがインターネット上にあり、数百以上のウェブサイトが1分ごとに作られているのです。なので、もし求めている結果を見つけるために検索エンジンが全てのサイトを見て回らなくてはならないならば永遠に時間がかかってしまいます。検索結果を素早く出すために、事前に検索エンジンは定期的にウェブをスキャニングして、後で検索に役立つような情報を記録しています。こうすることで「火星へ行く」ことについて検索をかける場合、検索エンジンはリアルタイムでその答えを出せるようになるのです。どのように作動しているのでしょうか。インターネットは、それぞれがハイパーリンクでつながっているページのウェブです。情報を集めるために検索エンジンは「スパイダー」と呼ばれるウェブページを横切るプログラムを作動させています。ハイパーリンクを見つけるたびにすべてのページを訪問するまで付いていき、全体のインターネット上で見つけることができます。スパイダーが訪問する各ページにおいて、検索に必要かもしれない情報を記録するために「検索インデックス」と呼ばれる特別なデータベースにその情報を追加します。「火星に行くにはどのくらい時間がかかる?」と質問した場合、検索エンジンは検索インデックスにある一つ一つの単語を探してその単語が含まれているインターネット上のすべてのページのリストを素早く取得します。しかし、これらの単語を検索するだけでは数百万ものぺ―ジが出てきてしまうので、検索エンジンはまず始めにどの結果が一番適しているのかを決める必要があります。この部分が一番トリッキーです。なぜなら、何を探しているのかを推測しなくてはいけないからです。それぞれの検索エンジンは独自のアルゴリズムを用いて、欲しいと思っているものをベースにページをランク付けます。検索エンジンのランキングアルゴリズムは検索ワードがページのタイトルに表示されているかをチェックし、その隣同士にすべての単語が並んでいるか、あるいはどのページを見たがっているのかを計算し数字を求めます。Googleは一番有名なアルゴリズムを開発しました。それはどのくらい他のウェブページがそのページにリンクされているかを考慮することで一番関連のある検索結果を選ぶというものです。アイデアとしては多くのウェブサイトがそのウェブサイトを面白いものだとするのであれば、探しているものである可能性が高いということです。このアルゴリズムは「ページランク」と言われています。それは、ウェブページをランク付けするからではなく発明者兼Google創設者の一人ラリー・ページに由来しています。大体の場合、訪問されることでウェブサイトはお金を稼ぐことができるので、スパムの発信者はどうやって検索アルゴリズムを操作できるのか探っています。そうすればより高い位置に検索結果を置くことができるからです。検索エンジンは定期的にアルゴリズムを更新することで、結果の上部に信憑性のないサイトやフェイクサイトが来ないようにしています。これらのページに信憑性がないかどうかはウェブアドレスを見て最終的には自分で判断します。検索プログラムは、アルゴリズムを改善するために常に進化し続けています。そうすることで他の競合社よりも早くより良い結果をもたらします。今日の検索エンジンは、検索を絞り込むのに明確に提示していないような情報さえも使用することができます。なので、例えば「ドッグ・パーク」と検索した場合、多くの検索エンジンは自分の位置情報を入力しなくても近くのドッグ・パークを表示します。現代の検索エンジンは、ページにある単語以上のことを理解できるようになっています。それは探しているものに対して最適な結果を表示するためです。「速いピッチャー」と検索した場合、検索エンジンはアスリートを探しているのだとわかります。しかし、「大きいピッチャー」と検索すれば、キッチン用品を表示するかもしれません。単語をよりよく理解するためにマシンラーニングというものを使っています。これは人工知能の一種で、これによって検索アルゴリズムがページ内の単語や個別の文字だけでなく、単語の基本的な意味を理解して検索をかけることができるようになります。インターネットは指数関数的に成長していますが検索エンジンをデザインするチームが的確な仕事を行うことで、知りたい情報が常に一番に上がってくるようにすることができます。

20

「火星へ行けるまではどのくらいかかるか」という検索をしたとして、これらの検索結果はどこから来たもので、1番上に来る回答結果が、なぜ他の回答よりも最初にリスト化されているのかと言うという疑問がわくと思います。検索エンジンは、リアルタイムで調べている人の検索ワードを作動させてはいません。10億以上のウェブサイトがインターネット上にあり、数百以上のウェブサイトが1分ごとに作られています。もし、知りたいことを調べた時に、全てのサイトを回らなくてはならないとなったら、おそらく、永遠に時間がかかります。検索結果を素早く出すために、事前に検索エンジンが定期的にウェブをスキャニングすることで、後で調べる人の検索に役立つような記録をしています。こうすることで、「火星へ行く」ことについて検索する場合、検索エンジンはリアルタイムでその答えを出せるものを既に持っているという訳です。 検索エンジンがどのように作動しているかということについて、まず、インターネットは、それぞれがハイパーリンクで繋がっているページのウェブです。これらのウェブページを横切るスパイダーというプログラムがあり、検索エンジンは情報を集めるために、このスパイダーというプログラムを定期的に作動させています。スパイダーは、ハイパーリンクを見つけるたびに、全てのページを見て回り情報を集め、インターネット上の全体で見つけられるようにしています。スパイダーが横切る各ページにおいて、検索に必要かもしれない情報を記録するために、「検索インデックス」と呼ばれる特別なデータベースへとその情報を追加します。「火星へ行けるまではどのくらいかかるか」と検索した時、検索エンジンは、検索インデックスにあるそれらの単語を一つ一つ探して、その単語が含まれているインターネット上の全てのページのリストを素早く手に入れます。しかし、これらの単語を検索するだけだと、数百万ものページが出てきてしまうので、検索エンジンまず初めに、どの結果が調べている人に見せるためには適しているかを決める必要があります。検索エンジンは調べる人が何を探しているかを推測しなくてはならないため、この動作が実はなかなか大変です。それぞれの検索エンジンは独自のアルゴリズムを使っていて、調べている人が欲しいと思っている情報を基盤にて、ページをランクづけています。ランキングアルゴリズムとして、検索ワードがページのタイトルに表示されているかやその隣同士に全ての単語が並んでいるかどうかをチェックしたり、どのページを必要とし、どれを不必要としているのかを計算したりします。「ページランク」と呼ばれるこのアルゴリズムは、ウェブページをランク付けするからではなく、発明者のラリー・ページに由来しています。検索エンジンは定期的にあるごを更新することで、結果の上位に信ぴょう性のないサイトやフェイクサイトが来ないようにしています。検索プログラムは、アルゴリズムを改善するために常に進化し続けています。そうすることで、他の競合社よりも素早く寄り良い結果をもたらせるからです。検索を絞り込むために、明確に提示していないような情報さえも提示することができます。 現代の検索エンジンは、ページにある単語以上のことを理解できるようになっています。これは、調べる人に最適な結果を表示するためです。単語をより良く理解するために「マシンラーニング」というものを使っています。これは、人工知能の一種です。これによって、検索アルゴリズムがページ内の単語や個別の文字だけでなく、単語の基本的な意味を理解して検索をかけることが出来るようになります。

21

The Internet: How Search Worksを私は選択しました。 これはどのように検索エンジンが動いて私たちに情報を届けているのかというもので、私がネットで何かを検索するときにリアルタイムでその用語を検索して膨大な量から探しているのではなく、私の求めている情報をあらかじめ作られていて用意されている状態から合うものを持ってきているのです。そしてその結果を記憶しているのです。すでに答えを用意されているからあんなに早いのです。それもずっと貯めているものではなく、検索エンジンは常に情報を更新していてハイパーリンクでつながっているインターネットから全てのサイトに訪問していて、そしてそれを検索インデックスというデータベースに保管していて、検索エンジンはワードを検索されたときにそのデータベースからどのサイトを有線表示させるかを推測して検討しているのです。これには各検索エンジンで独自のアルゴリズムが採用されているのですが Googleはページランクというものを採用していて開発者のラリーページさんから名前をとっています。これはどのくらい他のページがそのページにリンクされているのかを調べ一番ワードに関係ある検索結果を選び、多くのサイトがそのサイトを面白いものだと思っているならそれを優先表示させるというものなのです。そしてワードだけで検索回数を稼ぐサイトもアルゴリズムによって表示されないようになっていたりします。さらにはマシンライニングなども使い検索結果以上のことが表示されるようになっているのです。常に検索エンジンは進化しているのです。

22

 私は、「The Internet: HTTP & HTML」の動画を観ました。字幕は英語(自動生成)から日本語を選択できました。この動画では、コンピュータはどのようにして世界で相互に通信しあっているのかを解説しています。  Webブラウザにアドレスに入力しエンターを推すと何千マイルも離れた場所にあるサーバにHTTPおよびHTTPS tansと呼ばれる言語でコンピュータに話しかけます。そして、あるコンピュータが別のドキュメント要求する時に使用されるものであり、インターセプトする場合実際には非常に簡単にできます。自分のコンピュータとインターネット上のwebサーバとの間の会話や通信は主に、getリクエストと呼ばれるもので構成しており、それらは実際には非常に単純なword getに続いて、要求しているドキュメントの名前を指定します。  例えば、あなたがtumblrにログインしてログインページをロードしようとしたとき、getリクエストを送信すると、それはgetスラッシュというtumblrサーバとなっています。そして、ログインをし、tumblrサーバにすべてのHTMLコードが必要であると伝え、tumblrログインページにおいて、HTMLはハイパーテキストマークアップ言語を表示することができる。これによって、大きくてシンプルなドキュメントとHTMLは、タイトルを大きく太字にしたり特定のテキストをリンクする適切なフォントにすることができたり、一部のテキストを太字・斜体にしたり、画像を中央に配置したり右にそろえたりすることができます。  画像ウェブページのテキストはHTMLに直接含まれているが、画像やビデオは独自のURLをもつ個別ファイルであり、ブラウザはこれらそれ俺に対して個別のHTTPリクエストを送信する必要があります。送信したものが到着したときに、それらを標示するシステムとなっています。  成功が記録されたというウェブサイトをブラウザに送り返したとすると、自分として入力をするが、そのページに加えて、ブラウザが認識し、保存する必要がある不可視のcookieデータを取り込んでいます。これは、webサイトがユーザを記録できる唯一の方法であるために重要である。これは、tumblrのIDカードにcookieデータが実際にあり、それはあなたをあなた自身と認識し、あなたのwebブラウザはその番号を保持しており、次にtumblrを更新した際に、次にtumblr comにアクセスを試みたときに、webブラウザは、そのID番号をリクエストに自動的に添付することを認識することができます。ブラウザからのアクセスはID番号を見て、これがリクエスト得あることを認識しています。このように通信の保護するためのレイヤーセキュリティのシステムを構築しています。  政府がwebサイトにセキュリティ保護を開始しようとした場合、IDまたはパスポートが発行できるようになり、これは、私たちが目にするインターネットの一部をブラウジングする基本的なことであると警告することができます。  HTMLメディアファイルやweb上の何かの送受信を行う際に、ルータネットワークを分解して内部で可能にすることによって、内部で可能にしています。小さなパケットで情報を転送するそれらのパケット自体が構成されており、電気を介して物理的に送信される1と0のバイナリシーケンスが分かる。そして、一度学べば光ファイバーケーブルとワイヤレスネットワークを配線することができるため、詳細と全てのレイヤーが連携して機能することに対して信頼することができることで、大規模で且つ信頼性の高い情報を首尾よく提供することができるシステムを構築しています。

23

私は、4番目の解説動画を選びました。以下、解説文になります。 私の名前はリン・ルートです。私はspotifyのソフトウェアエンジニアです。 そして私は、インターネットの信頼性を当然のことと考えることが多いことを最初に認めます。インターネット上をズームインする膨大な量の情報には驚くべきものがあります。 しかし、どのようにしてすべてのデータを確実に届けることができるのでしょうか。 Spotifyの曲を再生したいとします。お使いのコンピュータがspotifyサーバーに直接接続されていて、spotifyがあなたに曲を送信しているようです。直通の専用線。しかし、実際には、インターネットはそのようには機能しません。もしインターネットが直通の専用接続でできていたら、何百人ものユーザーが参加するため、機能し続けることは不可能です。特に すべてのワイヤーとコンピュータが常に機能しているという保証はありません。代わりにデータはインタネット上をあまり直接的な方法で移動しません。1970年代初頭、Vint Cerf とそのパートナーであるBob Kahnは、現在インターネットと呼ばれるものの設計に取り組み始めました。BobとVintには、インターネットのプロトコルとそのアーキテクチャを設計する責任と機会がありました。現在に至るまで、インターネットの成長と進化に参加しています。あるコンピュータから別のコンピュータに情報が転送される方法は、非常に興味深いものです。決まった道をたどる必要はありません。実際、道は変わるかもしれません。パソコン同士の会話の最中。インターネットの情報は一から情報のパケットと呼ばれるものでコンピュータから別のコンピュータへ。パケットはインターネット上のある場所から別の場所に移動します。来るまである場所から別の場所に移動する方法とよく似ています。渋滞や道路状況に応じて、選択する場合があります。旅行するために、同じ場所に行くために別のルートを取ることを余儀なくされます。そして、車の中であらゆるものを運ぶことができるのと同じように、多くの種類のデジタル情報をIPパケットで送信できますが、いくつかの制限があります。たとえば、スペースシャトルを建造場所から打ち上げ予定の場所に移動する必要がある場合はどうなりますか?シャトルは1台のトラックに収まらないため、バラバラに分割して、トラックのフリートを使用して輸送する必要があります。それらはすべて異なるルートをたどり、異なる時間に目的地に到着する可能性があります。ただし、すべての部品が揃ったら、それらの部品を完全なシャトルに再組立てできます。インターネットでは、詳細は同様に機能します。非常に大きな画像を友人に送信したり、webサイトにアップロードしたりする場合は、そのイメージは1と0の数千万ビットで構成されている可能性があり、1つのパケットで送信するには多すぎます。パソコン上のデータなので、画像を送るパソコンはすぐにそれを、パケットと呼ばれる数百または数千の小さな部分に分割します。車やトラックとは異なり、これらのパケットにはドライバーがおらず、ルートを選択しません。各パケットには、宗信玄と送信先のインターネットアドレスが含まれています。 ルーターと呼ばれるインターネット上の特別なコンピュータがトラフィックマネージャのように動作して、パケットがネットワークをスムーズに移動するようにします。1つのルートが混雑している場合、個々のパケットがインターネットを介して異なるルートを通過する可能性があります。そして彼らは目的地に到着する時間にわずかにずれたり、順序がずれたりすることがあります。それではこれがどのように機能するか見てましょう。インターネットプロトコルの一部として、全てのルーターは、パケットを送信するための複数のパスを追跡し、最も安いものを選択します。パケットの宛先IPアドレスの基づく各データの使用可能なパス。この場合の最安値はコストではなく、時間と非技術的要因を意味します。政治や企業間の関係など。多くの場合、データが移動する最適なルートは、必ずしも最も直接的なルートではありません。パスのオプションがあると、ネットワークのフォールトトレラントになります。これは何かがひどく、ひどく間違っていても、ネットワークはパケットを送信し続けることが出来ることを意味します。これはインターネットの重要な原則である信頼性の基礎です。では一部のデータを要求したいが、全てが配信されない場合はどうすればよいでしょうか?曲を聴きたいとします。曲が完全に再生されるように、全てのデータが配信されることを100%確信するにはどうすればよいでしょうか。新しい親友、TCP―伝送制御プロトコルを紹介します。TCPは、全てのデータの送受信をパケットとして管理します。保証付きのメールサービスと考えてください。デバイスで曲をリクエストすると、spotify は曲を多くのパケットに分割して送信します。パケットが到着すると、TCPは完全なインベントリを実行します。そして、受信した各パケットの確認応答を返します。全てのパケットがそこにある場合、TCPは配信に署名し、完了です。TCPは、いくつかのパケットが欠落していることを検出した場合、署名しません。曲の音質が悪いか、曲の一部が欠落している可能性があります。欠落しているパケットまたは不完全んパケットごとに、spotifyはそれらを再送信します。TCPが多くのパケットの配信を確認したら、その一曲のリクエストに対して、あなたの曲の再生が始まります。TCP及びルーターシステムの優れている点は、拡張性があることです。彼らは80億または80億のデバイスを操作できます。実際これらのフォールトトレランスと冗長性の原則により、ルーターを追加するほどインターネットの信頼性が高まります。また素晴らしいのは、インターネットを成長させ、拡張できることです。それを使用する人のサービスを中断することなく。インターネットは数十万のネットワークで構成されています。そして物理的に接続された数十億のコンピュータとデバイス。 インターネットを構成するこれらの異なるシステムは互いに接続し、互いに通信し、インターネット上でのデータの送信方法について合意された基準があるため、協力します。コンピューティングデバイス、またはインターネット上のルーターは、全てのパケットが必要に応じて、それが順番に再組立てされる宛先。これは、あなたや他の人がメールを送信したり、ウェブページにアクセスしたり、ビデオチャットをしたり、モバイルアプリを使ったり、または、インターネット上のセンサーやデバイスが互いに通信するときに用いられます。

24

私は8番目の開設動画を選びました。 Googleでリサーチとマシンラーニングチームを率いているジョンにとって世界中の人たちが検索エンジンを使って私たちが些細な疑問や重要な疑問を調べることはかなり自劇的なものだと思います。だからできる限り最適な答えを提示することは大きな責任です。また、Bing検索チームで働いているアクシャヤは人工知能やマシンラーニングを見始めるような時はたくさんありますが、ユーザーがどうやって使用していくのかについて議論する必要があるといっています。それは一日の終わりには社会に何らかの影響を与えたいという思いからきているようです。 火星へ行けるまでにはどのくらいかかる?という単純な質問があります。これらの検索結果はどこから来たものでなぜ一番上に来ている回答はほかの回答よりも先にリスト化されているのでしょうか。これままずどうやって検索エンジンが私たちの検索に対して結果を出しているのか見る必要があります。検索を行う前にまず初めに知らなくてはいけないことは、実際、検索エンジンはリアルタイムで検索ワードをWWW上で作動させているのではないことです。10億以上のウェブサイトがインターネット上にあって数百以上のウェブサイトが1分ごとに作られています。そのため、私たちが求めている結果を見つけるために検索エンジンがすべてのサイトを見て回らなければならないことは永遠に時間がかかってしまいます。事前に検索エンジンは定期的にウェブをスキャニングしていてその後私たちの検索に役立つような情報を記録しています。こうすることで火星に行くことについて検索をかける場合、検索エンジンはリアルタイムでその答えを出せるようなものを既に持っているというわけです。どのように作動しているかも見てみましょう。インターネットは、それぞれがハイパーリンクでつながっているウェブです。これらのウェブページを横切るスパイダーというプログラムがあるのですが情報を集めるために検索エンジンはそのスパイダーを定期的に作動させています。ハイパーリンクを見つけるたびに全てのページを訪問するまでついて行って全体のインターネット上で見つけることができるようになるわけです。スパイダーが訪問する各ページにおいて検索に必要かもしれない情報を記録するために検索インデックスと呼ばれる特別なデータベースへその情報を追加します。先程の検索に戻ってどのように検索エンジンが結果を持ってくることができるのか見てみます。火星に行くにはどのくらいかかると質問したときに検索エンジンは、検索インデックスにあるそれらの単語一つ一つを探してその単語が含まれているインターネット上のすべてのリストを素早くゲットします。しかし、これらの単語を検索するだけだと数百万ものページが出てきてしまうので検索エンジンは、まず始めにどの結果が一番見せるのに適しているのかを決める必要があります。検索エンジンは私たちが何を探しているのかを推測しなければならないのでこれはトリッキーです。それぞれの検索エンジンは独自のアルゴリズムを持っていて私たちがほしいと思っているものをベースとしてランクを付けます。検索エンジンのランキングアルゴリズムは検索ワードがページタイトルに表示されているのかをチェックしてその隣同士に全ての単語が並んでいるのかどうかをチェックしたりあるいはどのページを私たちが見たがっていてどれを見たがっていないのかを決められるようなほかの計算をします。Googleは一番有名なアルゴリズムを開発したがそれはどれくらい他のウェブページがそのページにリンクされているのかを考慮することによって一番関連のある検索結果を選びます。アイデアとしては多くのウェブサイトがそのウェブサイトを面白いものだと思っているのであればそれはもしかしたら私たちが探しているものである可能性が高いということです。ページランクといわれるこのアルゴリズムはウェブページをランク付けするからではなく、その発明者、Googleの創設者の一人であるラリー・ページに由来しています。大体の場合、訪問されることでウェブサイトはお金を稼ぐことができるのでスパムの発信者は検索結果でより高い位置にリスト化されることが可能になるのでどうやって検索アルゴリズムを操作できるのか定期的に方法を探っています。検索エンジンは定期的にアルゴリズムを更新することで結果の上部に信ぴょう性のないサイトやフェイクサイトが来ないようにしています。最近ではこれらのページに信ぴょう性がないかどうかは私たち次第でもあるがウェブアドレスをみて信頼できるソースかどうかを決めます。  検索プログラムは、アルゴリズムを改善するために常に進化し続けています。そうすることで、他の競合者よりも素早くより良い結果をもたらすことができます。今日の検索エンジンは、検索を絞り込むのに明確に提示していないような情報さえも使用することができます。なので、例えばドッグ・パークと検索をかけた場合、多くの検索エンジニアでは自分の位置情報を入力していなくても私たちの近くにあるすべてのドッグ・パークを検索して表示すると思います。現代の検索エンジンは、ページにある単語以上のことを理解できるようになっていますが、それは私たちが探しているものに対して最適な結果を表示するためです。速いピッチャーの検索をかける場合検索エンジンは私たちがアスリートを探しているということをわかっています。しかし、もし大きいピッチャーという検索をかけたらキッチン用品のオプションを表示するかもしれません。単語をより良く理解するためにもマシンラーニングというものを使っています。これによって検索アルゴリズムがページ内の単語や個別の文字だけではなく単語の基本的な意味を理解して検索をかけることができるようになります。インターネットは指数関数的に成長しているが検索エンジンをデザインするチームが的確な仕事を行うことで、私たちが知りたい情報が常に一番にあがってくることができるのです。

25

6,The Internet: Cybersecurity & Crime サイバー犯罪は社会に大きな問題を引き起こしています。それは、個人的、再生的、さらには国家安全保障に関連する問題にも影響が及んでいます。実際に過去数年間で、何百もの銀行カードが盗まれました。様々なサイバー犯罪は、コンピュータープログラムとハードウェアの弱点が悪用されることや人々がソフトウェアを使用する際の意図しない決定が利用されることで発生します。 サイバー犯罪の仕組みについて説明します。コンピューターウイルスは、ウイルスが実行可能プログラムであるかのように機能するという特徴があります。ウイルスは意図せずにインストールされることが多く、ユーザーやコンピューターに害を与えます。そして、このウイルスは他のコンピューターにも広がっていく可能性があります。 コンピューターをウイルスに感染させる方法として、セキュリティアップデートを装う場合が多いです。ハッキングプログラムは許可なしにインストールされていきます。 そうしてコンピューターに侵入したウイルスは、ファイルを盗んだり、消去したりするのです。さらには、プログラムを制御したり、他の人がコンピューターを自動的に制御したりできるようになります。 サイバー犯罪で使用されるもう一つの方法は、大量のメール送信です。人々を騙して機密性の高い個人情報を共有させようとするのです。また、フィッシングと呼ばれる行為があります。これは、アカウントのサインインを求める信頼できるメールを送るやり方です。このリンクをクリックさせることで偽のWEBサイトへと誘導するのです。 このようにサイバー犯罪は時間の経過とともに巧妙になってきています。私たちはコンピューターを利用する上で、これらの変化についていく必要があるのです。

26

私が選んだのは、Cybersecurity & Crime(https://www.youtube.com/watch?v=AuYNXgO_f3Y&list=PLzdnOPI1iJNfMRZm5DDxco3UdsFegvuB7&index=8)です。 今日、サイバー犯罪は、個人的にも、経済的にも、さらには国家安全保障の問題としても社会に大きな問題を引き起こしています。ここ数年だけでも何億ものクレジットカード番号が盗まれ、何千件もの社会保障番号や医療気力が漏洩し、さらには原子力発電所の遠心分離機までもがハッキングされ、無人航空機が乗っ取られました。 このような行為はハードウェアやソフトウェアの脆弱性を利用したり、ソフトウェアを利用している人の意図しない判断を利用することで行われます。 サイバー犯罪を行う人々は特定のプロフィールや動機には当てはまりません。例えば、国際的なテロリストから自慢話のためにする十代の子供まで様々な人が存在しています。 現在、大国は通常の軍隊だけでなく十分に武装したサイバー軍を持っています。実際、次の世界対戦は従来の武器ではなく、コンピューターを使って、国の水の供給やエネルギーグリッド、交通システムを停止させることで行われるかもしれないと言われています。 では、サイバー犯罪がどのような仕組みで行われているのでしょうか。 今回はソフトウェアウイルス、サービス妨害攻撃、フィッシング詐欺などについて学びます。 初めに、生物学や生理学におけるウイルスとは、咳やくしゃみ、あるいは物理的な接触によって感染する生物のことです。ウイルスは、細胞に感染している物質を注入し、その細胞を利用して複製を行います。このようにして人は病気になり他の人にも感染していきます。 コンピューターウイルスも同じような仕組みになっています。ウイルスは、通常は意図せずにインストールされ、ユーザーとそのコンピューターに害を及ぼす実行可能なプログラムです。また、ウイルスが他のコンピューターに感染することもあります。   さて、そもそもウイルスはどのようにしてパソコンに侵入するのでしょうか。 攻撃者が誰かのコンピューターに感染させる方法はいくつかあります。例えば、多くのウイルスはセキュリティアップデートと称して、目的を偽ってプログラムをインストールさせることがあります。また、攻撃を受ける側の人のコンピューターに搭載されているソフトウェアに脆弱性があり、攻撃者が明示的な許可を得ることなく ウイルスをインストールしてしまう可能性もあります。ウイルスがコンピューターに感染すると、ファイルを盗んだり削除したり、他のプログラムを制御したりし、あるいは他人がコンピューターを遠隔操作したりすることができるようになります。 ハッカーは、コンピューターウイルスを使って世界中の何百万台ものコンピューターを乗っ取り、ボットネットと呼ばれるデジタル軍団を作り、ウェブサイトを攻撃したりダウンさせたりすることができます。 このような攻撃を分散型サービス拒否(DDoS攻撃)と言います。サービス拒否(DoS攻撃)とは、ハッカーがウェブサイトに過剰なリクエストをかけることです。さらに、その進化版として、多くのコンピューターから一斉に攻撃されることを分散型サービス拒否と読んでいます。ほとんどのウェブサイトは1日に数百万件のリクエストに対応できるようになっていますが、様々な場所から何十億、何兆ものリクエストがくると、コンピューターに負荷がかかり、反応しなくなってしまいます。 また、サイバー犯罪者が利用する別の手口として、大量のスパムメールを送信し、人々を騙して重要な個人情報を共有させようとするものがあります。これをフィッシング詐欺と言います。 フィッシング詐欺とは、信頼できるように見えるメールを受け取り、自分のアカウントにログインするように促され、そのメールをクリックすると、別のウェブサイトに誘導されます。それでもログインしてしまうと騙されてパスワードを教えてしまったということになります。ハッカーは、そのログイン情報を使って、実際のアカウントにアクセスし情報を盗んだりお金を盗んだりします。 幸いなことに今は、インターネットをより安全なものにするために多くの企業や法律、政府機関が動いていますが、これらの努力だけでは十分ではありません。 コンピューターシステムがハッキングされる問題は、セキュリティ設計やソフトウェアにあると思うかもしれません。しかし、システムがハッキングされる原因の9割は、セキュリティバグではなく、人間の単純なミスによるものです。私たちができることは自分自身を守ることです。多くの場合、あなたの行動はあなた自身のデータやコンピューターのセキュリティだけでなく、あなたの学校や職場、自宅にいるすべての人のセキュリティに影響を与えます。 また、数十億ドルまたは数兆ドルが危険にさらされています。サイバー犯罪者は年々賢くなっており、私たち全員がそれに遅れずについていく必要があります。

27

The Internet: Packets, Routing & Reliabilityについてです。この動画では、Spotifyのデータを例に話が進みます。 私は、インターネットの信頼性を当然のことと考えることが多いことを初めて認めました。情報量の多さはインターネットの凄さを物語ります。しかし、どのようにして全てのデータを確実にあなたに届けることが出来るのでしょうか。Spotifyで曲を再生するとします。お使いのコンピューターがSpotifyサーバーに直接接続されます。その後、Spotifyは専用の直接回線で曲を送信します。しかし、実際には、それはインターネットの仕組みではありません。インターネットが直接専用接続で構成されている場合、それは何百万人ものユーザーが参加している状態を維持することは不可能です。特に、全てのワイヤーがコンピューターで常に機能するという補償は無いため、代わりに、データを直接的でない方法でインターネットを移動します。あるコンピューターから別のコンピューターに伝達される方法は非常に興味深い。例えば、ロケットならトラックで何台かに分けて輸送するし、異なるルートを異なる時間で目的地に到着します。しかし、到着したら、ロケットを完成させて発車できる。これは、インターネット上でも同じですが、ドライバーはおらず、ルートの選択も必要。使用のコンピューターはルーターと呼ばれ、少しでもあいている、ルーター同士の通信により、時間の短縮を図ります。 インターネットのプロトコル、各ルーターは複数のパスをたどって、パケットを送信しています。データごとに利用可能な最も安いパスを利用しています。これはIPアドレスに応じてになります。また、ここには時間や政治国家間の関係などの非技術要因が関係します。ほとんどが直接的ではないものの、うまくいかなくても、ネットワークはパケットを送信し続けることが信頼性の基礎になります。 TCPは、データの送受信をパケットとして管理します。デバイスで曲をリクエストすると、Spotifyは断片化した曲をいくつかのパケットに分けて送信します。パケットを受信すると、TCP全てを格納し、問題なければ、データの全てを保存します。コンピューターとルーターはパケットの経路を見つけるのに役立ちます。必要に応じて順番に再組み立てを行なう目的地へ、これはあなたが、メールやゲームなど、互いに通信したときに生じることになります。

28

1900年代後半プロトコルという現代のネット社会の元祖ともいえるものが作られました。双方の利用者が同意した場合通信することができます。  インターネット上の様々なデバイスにはすべて固有のアドレスがあります。これは単なる番号です。通信をする相手を知っている必要はありませんが、この番号を知っている必要があります。またパソコンのアドレスをIPといいます。IPは単なる番号ですがデバイスの国などの情報が入っています。またすべてのデジタルデータと同じようにこれらの数値はビット単位であらわされます。従来のIPは32ビットで、8ビットづづにわかれて構成されています。 1980年代からはIPv4が提供され40億を超える固有のIPアドレスを提供しました。しかしネット社会の発展によりこれでも不十分になりました。そしてIPv6が普及し始めました。V6になり長さは128ビットになりました。 殆どのユーザーはインターネットアドレスを気にしていません。システムは通称DNSと言われています。コンピュータはDNSを利用して、ドメイン名を検索し関連するIPアドレスを取得します。DNSは.com .netなどに分かれています。しかし一部のモノは便利性を考慮してオープンな状態になっています。そのためサイバー攻撃には弱くなってしまいます。フィッシング詐欺などが一つの例です。名前は一緒ですがIPアドレスが違くなっています。  

29

Jasmin LawrenceはXbox Oneのエンジニアリングチームのプログラムマネージャーです。Xbox社ではXbox Liveという世界中のゲーマーたちをつなぐオンラインサービスを展開しており、このサービスはインターネットの存在なしには実現しません。これらは簡単な作業ではなく、裏では多くのことが行われています。 最初に、インターネットがどのように機能しているのか、世界中のコンピュータはどのような方法で相互の通信が行われているのかについて説明がなされます。Webページにアクセスするために使用する「Webブラウザ」を開きます。次に、WebサイトにWebアドレスや、Uniform Resource Locatorまたの名をURLを入力します。 次にTumblrのWebブラウザの例を見て、これらがどのように機能するのかを見ていきます。動画内のDavid KarpはTumblrの創設者です。私達がアドレスを入力したとき、どのようなことが起こっているのでしょうか。Webブラウザにアドレスを入力しEnterキーを押すと、コンピュータは数千マイル離れた場所にある「サーバー」というコンピュータと通信を始めます。コンピュータはミリ秒単位でサーバーにWebサイトを要求し、サーバーはHTTPと呼ばれる言語で通信を始めます。HTTPはHyper Text Transfer Protocolの略で、コンピュータが使用する言語と考えることができ、別のコンピュータにドキュメントを要求します。インターネットは主に「GETリクエスト」と呼ばれるもので構成されており、それらは非常にシンプルな「GET」という単語と、要求しているドキュメントの名前です。そのため、もしTumblrにログインしログインページを読み込みたいなら、あなたはGET/loginというGETリクエストをTumblrのサーバーに送るだけで済みます。これによって、Tumblrのサーバーに、Tumblrログインページのすべてのログインコードが必用であることを伝えます。 HTMLはHyper Text Makeup Languageの略で、これはブラウザにページの外観を伝えるために使用する言語です。これは次のようなことができます。ウィキペディアなどはシンプルなドキュメントです。HTMLを用いれば、タイトルを太字にしたり、適切なフォントにしたり、特定のテキストを特定の他のページにリンクする、一部のテキストを太字にしたり、斜体にする、画像をページの中央に配置する、画像を右や左に揃えるなどの指示を行えます。Webページのテキストを直接HTMLに組み込みますが、画像またはビデオは、要求する必要のある独自のURLを持つ独自のファイルです。ブラウザはこれらのそれぞれに対して個別のHTTP要求を送信し、到着するとそれらを表示します。例えばWebページ上にたくさんの画像がある場合、それぞれが個別のHTTPリクエストを引き起こし、その数だけページの読み込みも遅くなります。 Webを閲覧するとき、GETリクエストでページをリクエストしないこともあります。例えば、フォームに入力するときや検索クエリを入力するときなどに、情報を送信することなどがあります。ブラウザは「HTTP POSTリクエスト」を使用して、この情報プレーンテキストをWebサーバーに送信します。Tumblrにログインする場合を考えます。まず最初にTumblr のログインページにPOSTリクエストを行います。そこに添付されたいくつかのデータの中にはあなたのメールアドレスやパスワードがあり、それらはTumblrのサーバーに向かいます。サーバーはそれを受け、あなたがデビッドであることを判断し、「成功です!デビッドとしてログインしましたよ」というウェブページをブラウザに送り返します。またそのとき、Webページとともにブラウザが認識して保存する非表示のCookieデータを少し添付します。これはWebサイトがユーザーを記憶できる唯一手段であるため、非常に重要です。Cookieデータが実際に存在するのは、TumblrのIDカードだけです。これはあなたをデビッドとして識別するための番号で、Webブラウザはその番号を保持し、次回Tumblr.comにアクサスしたとき、ブラウザはIDをTumblrのサーバーに送信するリクエストに自動で添付します。これにより、TumblrサーバーはブラウザからのリクエストとIDを認識し、デビッド本人からのリクエストであることを認識します。 今日、インターネットは完全に開かれています。その接続はすべて共有され、情報はプレーンテキストで送信されます。このことがインターネット経由で送信される個人情報のハッカーによる盗み見を可能にしています。しかし、安全なWebサイトは、Webブラウザに安全なチャネルで通信するように要求することでこれを防ぎます。Secure Sockets Layer とその後継のTransport Layer Security と呼ばれるものを使用します。これらのSSLとTLSは、のぞき見や改ざんから保護するための、通信全体を包むセキュリティの層というように考えることができます。HTTPSの横にあるブラウザのアドレスバーに表示されるロックアイコンが出ている場合には、SSLとTLSはアクティブの状態になっています。HTTPSプロトコルは、HTTPリクエストが保護され、安全な状態にあることを保証します。Webサイトがブラウザに安全な接続を行うように要求すると、最初にデジタル証明書が提供されます。この証明書は、Webサイトが安全であることを証明する公式のIDカードです。デジタル証明書は、WebサイトのIDを検証し、それらの証明書を発行する信頼できるエンティティである認証局によって発行されます。これは政府がIDやパスポートを発行できるのと同じようなことです。Webサイトが適切な認証をせずに安全な接続を開始しようとすると、デジタル証明書が発行されている場合、ブラウザは警告を表示します。 これがWebブラウジングの基本であり、私達が普段、目にするインターネットの一部です。要約すると、HTMLとDNSは、HTMLや、メディアファイル、web上のあらゆるものの送受信を管理します。内部でこれを可能にしているのは、小さなパケットで情報を分解して転送するTCP/IPおよびルーターネットワークです。これらのパケットは、電線、光ファイバーケーブル、ワイヤレスネットワークを介して、物理的に送信される1と0のシーケンスで構成されています。幸いなことにインターネットの1つの層がどのように機能するかを理解すれば、すべての詳細をおぼえていなくてもそれを信頼することができます。そしてこれらすべてのレイヤーが連携することによって、大規模かつ信頼性の高い情報を継続的に配信することについて、信頼性が保たれるのです。

30

私は6番目のEncryption & Public keyを見ました。インターネットとは情報の送受信が共有回線上で行われる、オープンな公共のシステムです。しかし、オープンにもかかわらず、クレカ番号やパスワードやメールアドレスといった大量のプライベートデータがインターネット上でやり取りされています。このプライベートデータをどのように保護すればいいのかというと、メッセージを混合または変更し、元のコンテンツを隠し、あらゆる種類のデータを守る暗号化のプロセスとデータを解釈可能にするために再構築する復号化のプロセスをとります。人類は何世紀にもわたってこのプロセスをしてきました。その代表的なものがシーザー暗号です。これはもっとも有名な暗号で、ローマの将軍のユリウス・カエサル(Julius・Caesar)から名づけられました。元のメッセージの各文字を特定の数だけずらし、送信者と受信者のみが知るキーと呼ばれるその特定の数により、暗号が復号化できるものです。しかし、この暗号はアルファベットの26文字を順番に試していくことで誰でも簡単に解くことができてしまいます。そこでこれを難しくするためにすべての文字を同じ数でシフトするのではなく、それぞれの文字で異なる数でシフトさせます。例えば、10桁のキーを使用すると、予測されるキーは100億通りになります。これを人間が解読するには何世紀もかかりますが、現在の平均的なコンピューターは数秒で解いてしまいます。解読が困難、つまり妥当な時間内に計算するのが難しいほどに安全に暗号化するにはどうすればいいんでしょう。現在の秘密通信では256ビットキーを使用しています。これは毎秒100兆通りのキーを試せるスーパーコンピューターを10万台使い、1つのメッセージをクラックするだけでも10の36乗年もの時間がかかります。コンピューターチップは毎年2倍の速さになり、サイズは半分になります。数百年後には256ビットでは足りなくなります。コンピューターの速度についていくには標準キーの長さを増やす必要があります。しかし、キーを長くするのは簡単でも暗号を解読するのに必要な数は指数関数的に増えていきます。送受信者がメッセージを暗号化、復号化するために同じキーを共有するとき、対象暗号化と呼ばれます。シーザー暗号のような対象暗号化では、秘密のキーはプライベートで事前に二人で合意されます。人々にとってこれはいいことだが、インターネット上はオープンなので2つコンピューターがプライベートで合意することはできません。代わりにコンピューターでは非対称キー(公開キー)を使います。これは誰とでも交換され、共有されていないキーで、データの暗号化に使用され、誰でも秘密のメッセージが作れます。しかし復号化は秘密のプライベートキーにアクセスできるコンピューターによってのみ行われます。わかりやすく説明すると、鍵を利用すると誰でも手紙を預けることができる郵便箱があります。そのカギは家族や友人に送ることもできるし、公開することもできます。公開されたキーによって誰でも手紙を預けることができるがその郵便箱を開けることができるのは秘密のキーを持った本人のみです。受け取った手紙に対して安全なメッセージを友人などに送り返すことができます。この方法だと秘密のキーの同意の必要性はなくなります。公開鍵暗号はオープンなインターネット上でのすべての安全なメッセージの基盤であり、Webサイトを閲覧するときに私たちを保護するSSLやTLSとして知られるセキュリティプロトコルも含んでいます。セキュリティプロトコルはいつも私たちがインターネットを使うときにアドレスバーに表示される小さな鍵や「https」の文字のことです。これは自分のコンピューターが閲覧しているWebサイト上で安全にデータ交換するために公開鍵暗号を使っているのを意味しています。ますます多くの人がインターネットにアクセスするにつれて、ますます多くのプライベートデータが送信され、そのデータを保護する必要性がさらに重要になってきます。また、コンピューターはますます高速になるにつれ、暗号化を行うための新しい方法を開発していく必要があります。

31

4番目の動画の解説文をここに提出します。 私はLynn、Sportfyの開発エンジニア。当たり前のようにインターネットを信頼している人が多いと思います。インターネットは情報量が多いことが強みですが、どのようにしてすべての情報を私たちに届けているのでしょうか。例えばSportfyで曲を再生するとします。その時あなたのコンピュータはSportfyのサーバーに直接つながり、Sportfyは専用の回路で楽曲をあなたのコンピュータに送ります。しかしこれはインターネットの仕組みとは違います。インターネットがコンピュータに直接接続されているとき何百万人ものユーザーが同時に接続することはできません。そのためデータがインターネット上を移動するとき直接的ではない移動をします。70年代初頭に私とボブはインターネットと呼ばれるものを設計しました。そして私たちはインターネットの成長と革新に参加してきました。あるコンピュータから別のコンピュータへと情報が伝達される方法は常に一定ではありません。情報が伝達される際にパスワードが変わる可能性もあります。情報はパケットのような形でコンピュータ間を移動します。そして車で場所から場所へ移動するように別の場所へと送信され、交通状況や道路状況によって道筋を変えます。そのため、同じ場所への移動でも違う道筋をたどることもあります。またパケットの中身は情報の内容によっては一つの大きな情報でも小分けにしたり、届く前に情報を一つにまとめるといったことが行われる場合もあります。これらの情報には車やトラックのようなドライバーはおらず出所と目的地のみが情報に記されています。そのため情報をスムーズに目的地に届けるためにルータが作用します。また、インターネットはエラーが起きても目的地に届くまでは常に情報を送信し続けます。しかし、穴tの求める情報が完璧に届かなかった場合はどうなるのでしょうか。それを解決するすべとしてTCPと呼ばれるものがあります。TCPはデータの送受信をパケットとして管理します。コンピュータで楽曲をリクエストするとSportfyは曲の情報をいくつかに分けて送信します。パケットが到着するとTCPはそれらのパケットを確認し、すべてのパケットが在るかチェックします。一部でも漏れがあればTCPが発見し、補足しているものをSportfyが再送信します。インターネットは数十万でのネットワークで構成されています。コンピュータとデバイス、インターネットがすべての人とつながれるような様々なシステム。私たちがメールを送ったりウェブをつかったり電話をしたりするとき、あなたが受信しているかに関わらず、一日に何十億回もコンピュータとルーターは情報の送信を行っています。

32

私は7番の解説動画を視聴しました。この項ではインターネットのセキュリティとサイバー攻撃などの犯罪について解説されています。サイバー犯罪は社会に大きな問題を引き起こしており、財政面や国家安全保障の面にも影響を及ぼしています。これらのサイバー犯罪を犯す人々は、単一のプロファイルや動機に適合せず、国際的なテロリストから若者まで様々です。サイバー犯罪に用いられるコンピュータウイルスは、生物学的なウイルスと同様に感染、複製し、勢力を広げる力を取得する実行可能プログラムのことを指します。このウイルスがコンピュータに侵入する方法は主に二つあり、一つはセキュリティアップデートを装い、被害者にインストールさせるというものです。そして二つ目はスパムメールによる侵入です。二つ目の方法のことをフィッシング詐欺とも呼びます。スパムメールをクリックし、パスワードなどのログイン資格情報を入力してしまうと、ハッカーは実際のアカウントにアクセスすることができ、情報やお金を盗まれてしまいます。もしハッカーが個人ではなく、公共のWebサイトにアクセスできてしまった場合、ボットネットとして使用し、Webサイトを攻撃及びダウンさせることができます。この種の攻撃は分散型サービス拒否、DDOSとも呼ばれます。サービス拒否とは、ハッカーがWebサイトに大量のリクエストを送り込んで応答を停止させることを指します。このように我々個人の行動は、自分のデータとコンピュータのセキュリティに影響を与えるだけではなく、学校や家族など周りの人を巻き込む可能性があります。ボットネットのように知らずに犯罪に加担するケースも少なくないため、ハッカーに後れを取らないよう、自衛することが大切だと私は考えました。

33

4つめの動画The Internet: Packets, Routing & Reliabilityの解説 私たちは、日々インターネットの信頼性を当然のことと考えています。インターネット上には多くの情報があり、それはインターネットのすごさを物語っています。しかし、どのようにしてこれらの情報を私たちのデバイスに届けているのでしょうか。Spotifyで曲を再生するときには、私たちのデバイスが、Spotifyのサーバーに接続し、専用の回線で曲を送信します。しかし、実際はそんな単純なものではありません。本当に一人一人と直接回線をつないでいたら、何百万人ものユーザーとその状態を維持することは不可能です。そのため、実際は直接的ではない方法でインターネット上を移動します。 インターネットは70年前にボブ達によって作られました。コンピュータから、別のコンピュータにデータが送られるシステムは非常に面白いものです。決まった道はなく、渋滞してない道を状況に応じて選んで送られます。また、大きなデータを移動させるときには、一度にまとめて送れないため、複数の小さなパケットに分割して送信します。そして、後で全てのパケットを再び組み立てて、データを復元します。 実際に、このようなシステムでデータを送ると、部分的にパケットを紛失してしまうことがあります。そのため、Spotifyでは、組み立てるときに全てのパケットがちゃんと届いているか確認するTCPというのを導入しています。これによって、もし不足しているパケットがあった場合、その部分だけ再びSpotifyのサーバーから送り直します。これによって、不完全な曲をユーザーに提供しないようになっています。 このようなシステムは、私たちが普段何気なく利用しているメールやSNS、動画視聴などの裏で常に働いているのです。

34

ジョンはGoogleでリサーチ&マシンラーニングチームを率いています。世界中の人たちが検索エンジンを使いささいな疑問や驚くほど重要な疑問を調べるのはかなり刺激的のものだと言っている。だから、出来る限り最適な答えを彼らに提示することはとても大きな責任だと考えています。 アクシャヤはBing検索チームで働いています。人工知能やマシンラーニングを見始めるときはたくさんあるが、ユーザーがどうやって使用していくのかについて議論する必要があると言っている。理由は、一日の終わりには社会に何らかの影響を与えたいと考えているからです。 火星に行くにはどのくらい時間がかかるでしょう?他の解答より最初にリスト化されるのはなぜでしょう?まず、検索エンジンがあなたの検索に対してどのように結果を出すのか見てみましょう。始めに知っておくべきことは検索エンジンはリアルタイムで検索ワードをワールドワイドウェブ上で作動させていないということです。そのため、10億以上のウェブサイトがインターネット上にあり数百以上が一分ごとに作られているのです。だから、あなたの求めている結果を素早く見つけるために検索エンジンは定期的にウェブをスキャニングしあなたの検索に役立つように情報を記録しているのです。こうすることで、「火星に行く」ことについて検索をする場合、リアルタイムで答えを出すことが出来るのです。 どのように作動しているのか見ましょう。インターネットはそれぞれがハイパーリンクで繋がっているページのウェブです。これらのウェブページを横切るスパイダーというプログラムがあるが、情報を集めるために検索エンジンはスパイダーを定期的に作動させています。ハイパーリンクを見つけるたびに全てのページを訪問するまで付いて行って、全体のインターネット上で見つけることが出来ようになります。スパイダーが訪問する各ページにおいて、検索に必要かもしれない情報を記録するために検索インデックスと呼ばれる特別なデータベースへ情報を追加します。 さっきの検索に戻り、どのように検索エンジンが結果をもってくることが出来るか見ましょう。「火星に行くにはどのくらいかかる?」と質問した時、検索エンジンは検索インデックスにあるそれらの単語一つ一つを探しそれが含まれてるインターネット上の全てのページのリストを素早くゲットしています。しかし、これらの単語を検索するだけでは数百万ものページが出てきてしまうので、始めにどの結果が一番見せるのに適しているのかを決める必要があります。検索エンジンは何を探しているのか推測しなければならないのです。それぞれの検索エンジンは独自のアルゴリズムを使っていて、欲しいと思うものをベースにランクを付けます。ランキングアルゴリズムは検索ワードがページのタイトルに表示されているかをチェックして、隣同士に単語が並んでるかチェックしたり、どのページを見たがっていて、または見たがっていないのかを決められるような計算をします。Googleは一番有名なアルゴリズムを開発したが、どのくらい他のウェブがそのページにリンクされているかを考慮することで一番関連のある検索結果を選んでいます。アイディアとしては多くのウェブサイトがそのウェブサイトを面白いと思っているのならもしかしたら探しているものである可能性が高いです。「ページランク」と呼ばれるこのアルゴリズムはウェブページをランク付けするからではなく、発明者であるラリー・ページに由来しています。彼はGoogle設立者の一人です。 多くの場合、訪問されることでウェブサイトはお金を稼ぐことが出来るので、スパムの発信者はどうやって検索アルゴリズムを操作できるのか定期的に探っています。そうすれば、検索結果でより高い位置にリストされることが可能になるからです。こうすることで、結果の上部に信憑性のないサイトやフェイクサイトが来ないようにしているのです。検索プログラムは、アルゴリズムを改善するために常に進化をし続けています。それにより、他の競合社よりも素早くより良い結果をもたらすことが出来るのです。今の検索エンジンは、検索を絞り込むのに断片的な情報さえも使用できます。例えば、「ドッグ・パーク」と検索したら、多くの検索エンジンはあなたの近くにある全てのドッグ・パークを結果として表示するのです。現代の検索エンジンは、ページにある単語以上のことを理解できるようになっているがそれは探しているものに対して最適な結果を表示するためなのです。例えば、「速いピッチャー」の検索をかける場合アスリートを探しているのだと理解しています。しかし、「大きいピッチャー」と検索をしたらキッチン用品のオプションを表示するかもしれません。単語をより理解するためにマシンラーニングを使っています。これは、人工知能の一種です。これにより、検索アルゴリズムがページ内の単語や個別の文字だけでなく単語の基本的な意味を理解して検索をかけることが可能になります。 インターネットは指数関数的に成長していますが、検索エンジンをデザインチームが的確な仕事を行うことであなたが知りたい情報が一番にあっがてくるようにすることが出来るのです。

35

インターネットの仕組みについて話します。 私の仕事は、ネットワーキングに依存しています。 しかし、70年代初頭には、それを行うための標準的な方法はありませんでした。 ヴィント・サーフとロバート・カーンは、通信を可能にするインターネット作業プロトコルを発明しました。この発明は、現在インターネットと呼ばれるものの基礎を築きました。 インターネットはネットワークのネットワークです。世界中の何十億ものデバイスを接続します。Wi-Fi経由でラップトップまたは電話に接続されている可能性があります。 そのWi-Fi接続がインターネットサービスプロバイダー、通称ISPに接続します。 そのISPは数十万のデバイスを通じて、世界中の何十億ものデバイスにすべてが相互接続されたネットワークです。 ほとんどの人が理解していないことの一つは、インターネットは実際には設計哲学であり、一連のプロトコルで表現されたアーキテクチャであるということです。 プロトコルは良く知られた一連のルールと標準であり、すべての当事者が使用に同意すると、問題なく通信することが出来ます。 設計哲学はインターネットが新しい通信技術に適応し、吸収することを可能にしました。 これは、新しいテクノロジーが何らかの方法でインターネットを使用するためには、どのプロトコルを使用するかを知る必要があるためです。 インターネット上の様々なデバイスにはすべて固有のアドレスがあります。 インターネット上の住所は単なる番号であり、電話番号や住所のようなものです。 これは、ネットワークのエッジにある各コンピューターまたはデバイスに固有です。 これは、ほとんどの家庭や企業が郵送先住所を持っている方法に似ています。人を知る必要はないのです。 手紙を送る際には、相手の住所と書き方を知っておく必要があります。 手紙を郵便システムで宛先に運ぶことが出来るように、住所を正しく入力する必要があります。 インターネット上のコンピューターのアドレス指定システムは類似しており、一つのシステムの一部を構成します。 インターネット通信で使用される最も重要なプロトコルの総称で、インターネットプロトコルまたはIPと呼ばれます。 コンピューターのアドレスは、そのコンピューターのIPアドレスと呼ばれます。ウェブサイトにアクセスすることは本当にあなたのコンピューターが別のコンピューターに情報を求めているだけです。コンピューターがメッセージを送信します。 他のコンピューターのIPアドレスに送信し、その発信源のアドレスも送信するため、他のコンピューターは応答の送信先を知っています。 IPアドレスを見たことがあるかもしれません。それはただの数字の塊です。 これらの番号は階層構造になっています。 自宅の住所に国、都市、通り、番地があるように、IPアドレスには多くの部分があります。 全てのデジタルデータと同様に、これらの各数値はビットで表されます。 従来のIPアドレスは各部位に8ビット、4つで32ビットです。 通常では、以前の番号はデバイスの国と地域のネットワークを識別します。 次にサブネットワーク、最後に特定のデバイスのアドレスが続きます。 このIPアドレス指定は、IPv4と呼ばれます。 1973年に設計され、80年代初頭に広く採用され、インターネットに接続するデバイスに40億をこえる固有アドレスを提供します。しかし、人気過ぎたため40億という量では十分ではなくなりました。現在、より長いIPアドレス形式、IPv6への複数年にわたる移行の最中です。これはアドレスごとに128ビットを使用し、340億のアドレスを提供します。 ほとんどのユーザーは、インターネットアドレスを見たり気にしたりすることはありません。ドメインネームシステムまたはDNSと呼ばれるシステムは、www.example.comなどの名前を対応するアドレスに関連付けます。コンピューターはDNSを使用してドメイン名を検索し、関連するIPを取得します。コンピューターをインターネット上の宛先に接続するために使用されるアドレスです。 何十億もの異なるWEBサイトのいずれかを見つけるシステムをどのように設計すればよいのでしょうか。 一つのDNSサーバーがすべてのデバイスからのすべての要求を処理できるわけではありません。DNSサーバーが分散階層で接続され、分割されていることです。 org、com、netなどの主要なドメインの責任を分割します。 DNSは当初、政府・教育機関向けの一般公開通信プロトコルとして作成されました。 一般公開であるためサイバー攻撃の影響は受けやすくなっています。 攻撃はDNSスプーフィングがあります。偽のサイトを本物のように利用させられ、脆弱になるものです。 インターネットは巨大で、毎日大きくなっています。 しかし、ドメインネームシステムとインターネットプロトコルはスケーリングするように設計されています。

36

私は1番最後の動画を選びました。その動画では、まずどうやって検索エンジンが調べている人の検索に対して結果を出しているのか見ています。検索を行う時にまず初めに知らなくちゃいけないことは、実際検索エンジンはリアルタイムであなたの検索ワードをワールドワイドウェブ上で作動させているのではないことです。それゆえ、10億以上のウェブサイトがインターネット上にあって数百以上のウェブサイトが1分ごとに作られているそうです。そのため、もしあなたの求めている結果を見つけるために検索エンジンがこれら全てのサイトを見て回らなくちゃならなければ、永遠に時間はかかってしまいます。検索結果を素早く出すために事前に検索エンジンは定期的にウェブをスキャニングしていて、後にあなたの検索に役立つような情報を記録しているそうです。こうすることで、「火星へ行く」ことについて検索をかける場合、検索エンジンはリアルタイムであなたにその答えを出せるようなものを既に持っているということです。どのように作動しているか見てみると、インターネットはそれぞれがハイパーリンクで繋がっているページのウェブでこれらのウェブページを横切るスパイダーというプログラムがありますが、情報を集めるために検索エンジンはそのスパイダーを定期的に作動させています。ハイパーリンクを見つけるたびに全てのページを訪問するまでついて行って、全てのインターネット上で見つけることができるようになります。スパイダーが訪問する各ページにおいて、検索に必要かもしれない情報を記録するために検索インデックスと呼ばれる特別なデータベースへ、その情報を追加します。検索のことに戻りますが、どのように検索エンジンが結果を持ってくることができるのか見ていきます。「火星に行くにはどのくらいかかる?」と質問した時、検索エンジンは検索インデックスにあるそれらの単語一つ一つを探してその単語が含まれているインターネット上の全てのページのリストを素早くゲットします。しかし、これらの単語を検索するだけだと数百万ものページが出てきてしまうので検索エンジンは、まず始めにどの結果が一番あなたに見せるのに適しているのかを決める必要があります。この部分がトリッキーです。なぜなら検索エンジンはあなたが何を探しているのかを推測しなくてはいけないからです。それぞれの検索エンジンは独自のアルゴリズムを使っていてあなたが欲しいと思っているものをベースにしてページをランク付けます。検索エンジンのランキングアルゴリズムは検索ワードがページのタイトルに表示されているかをチェックしてその隣同士に全ての単語が並んでいるのかどうかをチェックしたり、あるいはどのページをあなたが見たがっていてどれを見たがっていないのかを決められるような他の計算をしたり、数字を求めたりします。Googleは一番有名なアルゴリズムを開発しましたがそれはどのくらい他のウェブページがそのページにリンクされているかを考慮することで一番関連のある検索結果を選びます。アイデアとしては多くのウェブサイトがそのウェブサイトを面白いものだと思っているのであれば、それはもしかしたらあなたが探しているものである可能性が高いです。「ページランク」と呼ばれるこのアルゴリズムはウェブページをランク付けするからではなく、その開発者、ラリー・ページに由来しています。Google設立者の一人です。大体の場合、訪問されることでウェブサイトはお金を稼ぐことができるので、スパムの発信者はどうやって検索アルゴリズムを操作できるのか定期的にその方法を探っています。そうすれば検索結果でより高い位置にリストされることが可能になるからです。検索エンジンは定期的にアルゴリズムを更新することで結果の上部に信ぴょう性のないサイトやフェイクサイトが来ないようにしています。最近ではこれらのページに信ぴょう性がないかどうかはウェブアドレスを見て信頼出来るソースであるのかどうかを決めるのはあなた次第でもあります。検索プログラムは、アルゴリズムを改善するために常に進化し続けています。そうすることで、ほかの競合社よりも素早くより良い結果をもたらすことができるようにです。今日の検索エンジンは、検索を絞り込むのに明確に提示していない情報さえも使用することができます。例えば、「ドッグ・パーク」へ検索をかけた場合、多くの検索エンジンはあなたの近くにある全てのドッグ・パークを検索結果して表示します。あなたが自分の位置情報を入力していなくてもです。現代の検索エンジンは、ページにある単語以上のことを理解できるようになっていますが、それはあなたが探しているものに対して最適な結果を表示するためです。例えば「速いピッチャー」の検索をかける場合、検索エンジンはあなたがアスリートを探しているのだということが分かっています。しかし、もし「大きいピッチャー」という検索をかけたらキッチン用品のオプションを表示するかもしれません。単語をよりよく理解するためにもマシンラーニングというものを使っています。マシンラーニングは人工知能の一種です。これによって検索アルゴリズムがページ内の単語や個別の文字だけじゃなく単語の基本的な意味を理解して検索をかけることができるようになります。インターネットは指数関数的に成長していますが検索エンジンをデザインするチームが的確な仕事を行うことであなたが知りたい情報が常に一番にあがってくるようにすることができます。

37

私は今回”How Search Works”を選びました。解説者のアクシャヤさんはBing検索チームで働いています。彼女の部署では、人工知能やマシンラーニングをユーザーがどのように使用しているか、議論しています。例えば”火星に行くのにはどれくらいかかる?”と検索すれば、沢山の回答が出てきますが、最初にくる回答はなぜそこにあるのでしょうか。インターネット上には数万ものウェブサイトがあり、ユーザーが探すものを見つけるために、検索エンジンが、すべてのサイトを見回るのは時間がかかります。そのため、検索エンジンは定期的にウェブをスキャンして、ユーザーに役立つ情報を記録しているのです。私は、コンピューターが私たちの検索記録などあらゆる情報を記憶しているのは、便利であると同時に危険だとも思いました。特に、Dog Parkと検索したとき、自分の位置情報を保存していないにもかかわらず、自分の家から近い公園が検索結果に出るということは、自分の過去の検索結果からコンピューターが家の位置を推測しているということです。もし、これが悪用されたら、他人に住所が簡単にバレてしまうでしょう。Googleはテクノロジーを発展させるだけでなく、ユーザーの安全もきちんと守るべきだと思いました。

38

今日サイバー犯罪は社会に大きな問題を引き起こしています。個人的、財政的、さらには国家安全保障に関する問題です。過去数年間で、何百もの銀行カード番号が盗まれました。何千万のコミュニティセキュリティ番号と医療記録が考証されました。核遠心分離機でもハッキングされています。ドローンも乗っ取られ、これら全てはコンピュータープログラムとハードウェアの弱点を悪用することで発生します。また、意図してない決定を利用してます。これらの犯人は、単一のプロフィールや同期ではありません。世界的テロリストや、自分の権利を侵害しようと自慢している人です。現在国には、正規軍だけでなくサイバー軍も設立しています。実際次の世界大戦では、通常兵器での戦争では終わらないかもしれません。コンピュータを利用して、水、送電、輸送のシステムを停止される可能性があります。 Googleは、複数の実験を行い、ソフトウェアを可能な限り安全にしています。サイバー犯罪の仕組みは、ソフトウェアウイルス、サービス拒否攻撃、フィッシングについてなどです。生物学と生命において、ウイルスは生物です。せき、くしゃみまたは身体的接触によって広がります。ウイルスは細胞に感染し、遺伝物質を注入することで機能します。そしてそれらは、さいぼうをつかってさいせいします。人を病気にし、他の人にうつす。コンピュータウイルスは、ウイルスが実行可能プログラムであるように機能します。意図せずにインストールされ、ユーザーやコンピュータに害を及ぼします。ウイルスは他のコンピュータに広がる可能性があります。ハッカーが誰かのコンピュータに感染する方法はいくつかあります。被害者はプログラムをインストールして、プログラムの目的で騙そうとする可能性があります。たとえば、多くのウイルスはセキュリティアップデートを装います。使っているコンピュータがハッキングに対して貧弱である可能性があります。ハッキングプログラムは許可なしに自分自身をインストールします。ウイルスがコンピュータに侵入すると、ファイルを盗んだり消去できます。又は、プログラムを制御する、又は他の人がコンピュータを自動的に制御できるようになります。ハッカーはウイルスを利用して、世界中のコンピュータにアクセスします。それをボットネットとして知られるデジタルアーミーとして使用し、サイトをハッキングして差し押さえます。このハッキングは、サービス拒否攻撃と呼ばれています。ほとんどのサイトは、1日に何百万ものリクエストに対応する準備ができていますが、さまざまな場所からのリクエストをルーティングしていますが、コンピュータが過負荷になり、応答を停止します。サイバー犯罪で、あるもう一つは大量の迷惑メールの送信です。人々を騙して、機密性の高い個人情報を共有させようとするため、これをフィッシングと言います。フィッシングとは、見た目がどのようなものになるかを意味しています。アカウントへのサインインを求めるメールそれをクリックすると別のサイトに飛ばされます。ハッカーはあなたの、アカウントを使ってログインできるようになります。データを盗むこともできます。幸いなことに、多くの会社や法律がありより安全なインターネットのために活動する政府機関がありますが、これらの取り組みは十分ではないです。システムがハッキングされる90%は、セキュリティ上の欠陥が原因ではなく、利用ユーザーの単純なミスによって起こります。サイバー犯罪は時間と共に変化しており、対策を変える必要があります。

39

3.IPアドレスとDNS どのようにインターネットが機能しているか話していきます。私の仕事はネットワークで誰かと話せることに依存しています。しかし、1970年代までネットワークの仕様に標準規格はありませんでした。ヴィントン・サーフとロバート・カーンがコミュニケーションを可能にする為に、インターネットプロトコルを発明しました。この発明が現在私たちがインターネットと呼んでいるものの基礎となります。インターネットはネットワークの網です。地球上の数百万のデバイスを同時に接続します。あなたはノートパソコンやスマートフォンはWi-Fiを通してネットワークに接続しているかもしれません。その後、Wi-Fi接続はインターネットサービスプロバイダ(ISP)へ接続します。ISPは数十億台ものデバイスが接続され、数百万のネットワークを相互に接続します。 ほとんどの人々が感謝していない一つのことは、インターネットは非常に哲学的かつ一連のプロトコルで表現するように設計されていることです。プロトコルは一連の規則や標準規格などでよく知られています。プロトコルはトラブルなくコミュニケーションを取ることを可能にします。インターネットが物理的に機能していることはそれほど重要ではありません。そして哲学的にデザインされている事実は、インターネットが新しいコミュニケーション技術に適合したり、吸収することを許容します。インターネットは流行を追うように作られているため、どのプロトコルを使うか知る必要があります。インターネットでの住所は電話番号のような番号に過ぎません。ネットワークの末端のデバイスや電話の固有の番号です。これはほとんどの家庭や職場がメールアドレスを持つことに似ています。もしあなたが相手を知らなくても、相手にメールを送ることができます。しかし、あなたは相手の住所や住所の書き方を知る必要があります。その住所がおそらく手紙を住所まで運ぶことを可能にしているのでしょう。コンピューターにとっての住所も似たようなものです。そのコミュニケーションのために、簡単に言えばインターネットプロトコル(IP)と呼ばれるプロトコルが用いられています。コンピューターの住所はIPアドレスと呼ばれます。ウェブサイトを訪れることがまさにほかのコンピューターへ情報を聞いていることです。あなたのコンピューターは他のコンピューターの為にメッセージを送り、同時に固有の住所にも送ります。そして相手のコンピューターはどこに応答が送られたかを知ることができます。 IPアドレスのナンバーはヒエラルキーに基づいています。住所のように、IPアドレスは沢山のパーツから成り立っています。伝統的なIPアドレスは32ビットで構成されており、アドレスの各部分は8ビットです。最初の方のナンバーはデバイスのネットワークの国や地域を特定します。次はサブネットワーク、最後は固有のデバイスを特定します。このタイプのIPアドレスはIPv4と呼ばれます。1973年に開発され、1980年代に広く広まりました。40億台ものデバイスに割り当てられています。しかし、それでは不十分です。現在はもっと長いIPアドレスがあり、IPv6と呼ばれます。128ビットで構成されており、340澗台が割り当てられる。これは地球上の生物全てに割り当てられる程の量である。ほとんどのユーザーは今までIPアドレスを見たり、気にしたことはない。DNSと呼ばれるドメインネームシステムがあり、ウェブサイトのアドレスと結び付けられている。あなたのコンピューターはドメインと結び付けられたウェブサイトの名前を参照するのにDNSを使う。 ではどうやって数十億台ものデバイスから数十億の異なったウェブサイトを見つけ出しているのか?DNSサーバーは全てのデバイスからの要求を処理できません。答えは、DNSサーバーは分配されたヒエラルキーになっており、有名なドメインの地域ごとに分けられます。DNSは元々は開かれた政府の公共ネットワークや教育機関の為に作られました。DNSはサイバー攻撃を受けやすく、サイバー攻撃を受けると、悪意のある偽のウェブサイトへ誘導されます。 この状態になると、他の攻撃に対しても脆弱な状態になります。なぜなら、あなたは精巧に作られた偽のウェブサイトを使っている為です。インターネットは巨大で、毎日大きくなっています。しかし、どんなにインターネットが巨大化しても、ドメインネームシステムやインターネットプロトコルの大きさには限りがある。

40

サイバー犯罪は社会に大きな問題を引き起こしています。個人的、財政的、さらには国家安産保障に関連する問題があります。過去数年間では、何百もの銀行カード番号が盗まれました。また、何千万ものコミュニティセキュリティ番号と医療記録が交渉されました。核遠心分離機でさえハッキングされています。これらはすべて、コンピュータプログラムとハードウェアの弱点を悪用することで発生します。または、人々がソフトウェアを使用して行う意図しない決定を利用して発生します。これらの罪を犯す人々は、単一のプロフィールや動機を持っていません。サイバー犯罪を行う人は、世界的なテロリストか、自分の権利を侵害することを自慢しようと競っているティーンエイジャーである。現在、主要国には正規軍だけではなく、十分に準備されたサイバー軍があります。実際、次の世界大戦は通常兵器では終わらないと考えられています。むしろ、コンピュータを使用して全国の水道、送電網、および輸送システムを停止させます。 サイバー犯罪の仕組みは、ソフトウェアウイルス、サービス拒否攻撃、フィッシングがあります。まず、生物学と声明において、ウイルスは生物です。咳、くしゃみ、または身体的接触によって広がります。ウイルスは細胞に感染し、遺伝物資を注入することで機能します。そして、それらの細胞を使って再生します。人を病気にし、他の人にうつす。コンピュータウイルスは、ウイルスが実行可能プログラムであるように機能します。意図せずにインストールされることが多く、ユーザーやコンピュータに害を及ぼします。ウイルスは他のコンピュータに広がる可能性があります。 では、ウイルスはどのようにして最初にコンピュータに到達するのでしょうか?ハッカーが誰かのコンピュータに感染する方法はいくつかあります。例えば、多くのウイルスはセキュリティアップデートを装います。お使いのコンピュータがハッキングに対して脆弱である可能性もあります。ハッキングプログラムは、許可なしに自分自身をインストールします。ウイルスがコンピュータに侵入すると、ファイルを盗んだり消去したりできます。またはプログラムを制御する、またはほかの人がコンピュータを自動的に制御できるようにします。ハッカーはコンピュータウイルスを使用して、世界中の何百万台ものコンピュータにアクセスします。そして、それをボットネットとして知られるデジタルアーミーとして使用し、サイトをハッキングして差し押さえます。このハッキングは、サービスを拒否攻撃と呼ばれます。これは、ハッカーがリクエストの多いサイトを乗っ取った場合、ハッキングが同時に複数のコンピュータから発生する場合、サービス拒否攻撃と呼びます。 ほとんどのサイトは、1日に何百万ものリクエストに対応する準備が出来ていますが、様々な場所からの何十億ものリクエストをルーティングしました。コンピュータが超負荷になり、応答を停止します。 サイバー犯罪で使用されるもう1つのトリックは、大量の迷惑メールの送信です。人々をだまして機密性の高い個人情報を共有させようとするため、これはフィッシングと呼ばれます。フィッシングとは、見た目がどのようなものになるかを意味します。アカウントへのサインインを求める信頼できるメールが届きます。ただし、リンクをクリックすると偽のWebサイトに移動します。とにかくログインしている場合は、パスワードが添付されています。ハッカーはあなたの証明書を使ってログインできます。幸いなことに、多くの会社や法律があり、より安全なインターネットのために活動する政府機関は、これらの対策は十分ではありません。実際は、コンピュータがハッキングされたとき、問題は安全な設計かソフトウェアにあると考えられています。システムがハッキングされている時間の90%は、セキュリティ上の欠落が原因ではありません。理由は、ユーザーの単純なミスなのです。 自分の身を守るためにできることはいくつかあります。多くの場合、アクティビティはデータのセキュリティに影響を与えるだけではありません。あなたのコンピュータだけでなく、学校や大学の全員のセキュリティや職場や自宅など、数十億ドルが危険の危機に瀕しています。ただし、サイバー犯罪は時間の経過とともに巧妙になってきており、すべての変化についていく必要があります。

41

今日、サイバー犯罪は社会に大きな問題を引き起こしています。個人的にも、財政的にも、さらには国家安全保障の問題においても。ここ数年で、何億ものクレジットカード番号が盗まれ、何千もの社会保障番号と医療記録が漏洩し、ハッキングされた核遠心分離機、そして無人飛行機でさえが乗っ取られました。これはすべて、脆弱性悪用することによって行われます。ハードウェアとソフトウェアによってまた多くの場合、ソフトウェアを使用する人々によって行われた意図的でない決定によって行われます。これらのサイバー犯罪を犯している人々は、単一のプロファイルや動機に適合しません。それは国際的なテロリストから、自慢する権利を争うティーンエイジャーまで、誰でもあっても構いません。今日、最大の国々には正規軍だけでなく、十分に武装したサイバー軍もあります。実際、次の世界大戦は伝統的な兵器ではなく、国の水道、エネルギーグリッド、および輸送システムへの攻撃がメインとなるでしょう。 ソフトウェアウイルス、サービス拒否攻撃、フィッシング詐欺について。生物学と生活において、ウイルスは咳やくしゃみ、または身体的接触よって広がる生物です。ウイルスは、細胞に感染し、その遺伝物質を注入することで機能します。それらの細胞を使用して複製し、彼らは人々を本当の病気にし、ほかの人に感染させる可能性があります。コンピュータウイルスも少し似ています。ウイルスは、以下を取得する実行可能プログラムです。通常は意図せずにインストールされ、ユーザーとコンピュータに損害を与えます。ウイルスが他のコンピュータに広がる可能性もあります。では、そもそもウイルスはどのようにしてコンピュータに侵入するのでしょうか。攻撃者が誰かのコンピュータに感染する方法は2つあります。彼らは、被害者を誘惑してプログラムをインストールするように仕向けるかもしれません。たとえば、多くのウイルスはセキュリティアップデートを装っています。また、コンピュータ上のソフトウェアに脆弱性があり、攻撃者が自分自身をインストールする可能性もあります。明示的な許可を必要とせずに。ウイルスがコンピュータに侵入すると、ファイルを盗んだり削除したりできます。ほかのプログラムを制御したり、ほかの人に、コンピュータのリモート制御を許可したりできます。ハッカーはコンピュータウイルスを使用して、世界中の何百万台ものコンピュータを乗っ取ることができます。そして、それらをデジタルアーミー(ボットネットとも呼ばれる)として使用して、ウェブサイトを攻撃およびダウンさせます。この種の攻撃は、分散型サービス拒否と呼ばれます。サービス拒否とは、ハッカーがウェブサイトに大量のリクエストを送り込んで圧倒することです。攻撃が一度に多くのコンピュータから来る場合、これを分散型サービス拒否と呼びます。ほとんどのウェブサイトは、1日に何百万ものリクエストに対応する準備ができていますが、さまざまな場所から来る何十億、何兆ものリクエストで彼らは攻撃し、コンピュータは過負荷になり、応答を停止します。サイバー犯罪者が使用するもう1つのトリックは、人々をだまそうとして大量のスパムメールを送信することです。機密性の高い個人情報を共有すること。これはフィッシング詐欺と呼ばれます。フィッシング詐欺は、次のようなものを受け取ったときです。アカウントにログインするように求める信頼できるメールのようですが、メールをクリックすると偽のウェブサイトに移動します。とにかくログインすると、だまされてパスワードを教えてしまうことになります。ハッカーはログイン資格情報を使用して、実際のアカウントにアクセスできます。情報を盗んだり、お金を盗んだりします。安全を実現するために取り組んでいる多くの企業、法律、および政府機関のおかげでインターネットはより安全ですが、これらの取り組みは充分ではありません。コンピュータシステムがハッキングされたとき、問題はセキュリティにあると考えるかもしれません。設計またはソフトウェア、システムがハッキングされる確率の90%はセキュリティバグのせいではなく、人間による単純な間違いによるものです。  私たち全員が自分自身を守るためにできる対策がることが分かりました。多くの場合、あなたの行動は自分のデータとコンピュータのセキュリティに影響を与えるだけでなく、学校のみんなの安全、職場、そして家、数十億ドルまたは数兆ドルがかかっているのです。 サイバー犯罪者は毎年賢くなっており、私たち全員がそれに遅れないようにする必要があります。

42

今やこの世に欠かせない物となっているインターネットですが、1970年代初頭には、コンピュータでコミュニケーションを行うための標準的な方法はありませんでした。Vint CerfとBob Kahnは、通信を可能にするインターネット作業プロトコルを発明しました。この発明は、今日私たちがインターネットとして知っているものの基礎となるものです。 インターネットは、世界中の何十億ものデバイスを接続するネットワークです。Wi-Fi経由でラップトップまたは電話に接続され、インターネット・サービス・プロバイダ(ISP)に接続されます。相互接続された数十万のネットワークを通じて世界中のデバイス同士がつながることができるのです。 インターネットはデザイン哲学の要素が大きいです。一連のプロトコルで表現されます。 プロトコルとはよく知られたルールということで、全ての使用者が共通して用いることでインターネットを支障なく通信することができます。 インターネット上の様々なデバイスには全て固有のアドレスがあります。オンラインアドレスとは、電話番号や住所などのような単なる番号です。これは、ほとんどの家庭や企業が郵便の住所を持っている方法に似ています。メッセージを送信する相手をしる必要はありませんが、アドレスを知る必要はあります。そのアドレスのことをインターネット・プロトコル(IP)と呼びます。 Webサイトにアクセスするときには、お使いのコンピュータが別のコンピュータに情報を要求します。コンピュータはメッセージを別のコンピュータのIPアドレスに送信します。 元のアドレスを受け取ったらこれによりコンピュータは応答の送信先を知ることができ、目的のWebサイトを見ることができます。 IPアドレスの番号は階層的に配置されています。ビット住所のように国、市、番地が含まれています。すべてのデジタルデータと同じように、これらの数値はビット単位で表示されます。1973年に設計され、1980年代初頭に広く採用されたIPアドレスのコピーをIPv4といいます。このIPアドレスはインターネット上のデバイスを接続するために40億を超える固有のアドレスを提供することができました。しかし、40億では足りなくなりました。現在、IPアドレス形式への数年に渡る以降の真っ最中です。最近では、IPv6と呼ばれるアドレスに128ビットを使用したものが登場してきています。これによって地球上の全ての砂粒がIPアドレスを持つのに十分なほどのIPアドレスを提供す

43

ほどとの人がどうしてインターネットができたのかは知りません。しかし、そんなことはどうでも良いのです。私たちは、毎日使うものについてはそれほと考えずに、誰かが作ったものだと思っています。インターネットもそのひとつなのです。1970年代はじめのこと、パートナーのボブ・カーンと私は、ネットワークと知られている物の、デザインについて考えていました。それは全く別のプロジェクトでした。つまり、アーパネットの結果だったのです。国防総省の研究プロジェクトです。ホール・バランはコミュニケーションシステムをどうやって作るのかを考えていました。それは核の攻撃にも耐えられるようなものです。そこで、メッセージを小さいブロックにして、できるだけ速く張り巡らせたネットワークをあらゆる送ることを決めたのです。そこで、国中に広がる実験的なパケットのネットワークを作ることになったのです。それはうまくいきました。その中で、インターネットは誰が責任を持っているのでしょうか。実際のところ、誰もいないのです。みなさん一人ひとりとも言えます。インターネットというのはものすごく膨大な数の自走するネットワークからできているのです。このシステムの面白いことは完全に繋がっているということです。誰と誰が繋がれるかを管理していることは全くないのです。全てのデバイスは他の全てのデバイスに繋がっていて世界中のどの電話にも電話をかけることができます。このようなものは他にはありません。

44

ほどとの人がどうしてインターネットができたのかは知りません。しかし、そんなことはどうでも良いのです。私たちは、毎日使うものについてはそれほと考えずに、誰かが作ったものだと思っています。インターネットもそのひとつなのです。1970年代はじめのこと、パートナーのボブ・カーンと私は、ネットワークと知られている物の、デザインについて考えていました。それは全く別のプロジェクトでした。つまり、アーパネットの結果だったのです。国防総省の研究プロジェクトです。ホール・バランはコミュニケーションシステムをどうやって作るのかを考えていました。それは核の攻撃にも耐えられるようなものです。そこで、メッセージを小さいブロックにして、できるだけ速く張り巡らせたネットワークをあらゆる送ることを決めたのです。そこで、国中に広がる実験的なパケットのネットワークを作ることになったのです。それはうまくいきました。その中で、インターネットは誰が責任を持っているのでしょうか。実際のところ、誰もいないのです。みなさん一人ひとりとも言えます。インターネットというのはものすごく膨大な数の自走するネットワークからできているのです。このシステムの面白いことは完全に繋がっているということです。誰と誰が繋がれるかを管理していることは全くないのです。全てのデバイスは他の全てのデバイスに繋がっていて世界中のどの電話にも電話をかけることができます。このようなものは他にはありません。ネットワークの環境整備をすすめるひとに加わって、まだインターネットに繋がっていない人に届けることもできるかもしれません。私たちはインターネットから逃れることはできないのですから、もっと知って使いこなしませんか。

45

パケット、ルーティングとリライアビリティについての動画の4番目を見て解説文を書きたいと思います。ここでは、まず最初にスポーティファイの音楽配信機能を示し、膨大な数のデータを多くの顧客に伝送することは実際不可能であるが、その方法としてのコンピュータ及びインターネットの機能について説明が始まります。その方法としての説明が始まりますが、ネットワークの生みの親の説明を引用しますと、プロトコルという方法を提示し、IPパケットというものを介するインターネットの情報送信方法をロケットの設計において、部品を別々に配送する方法、写真を分割した情報として別々にパッケージとしてインターネットプロトコルとして送受信する実際のデータ通信方法を提示します。そして、その方法がスポーティファイで使用されていると社員は語り、TCPがプロトコルの方法としてセキュリティで保護されたメールサービスのようだとし、そのTCPによって情報が集約して局が大量の顧客に正確に通信されるということを説明しています。