Talking New York --- New Yorkで見つけた英語

発見と感動を与えてくれるニューヨークを英語学習に役立つコンテンツにして毎日お届けしています。

世界に衝撃を与えているAIのゴッドファーザーの声に耳を傾けよう。人類が滅びる前に。

ニューヨークタイムズの記事
The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead
(「A.I.のゴッドファーザー」がグーグルを去り、その先にある危険を警告する)


の後半です。
原文、画像はこちらからです。



In 2012, Dr. Hinton and two of his students in Toronto, Ilya Sutskever and Alex Krishevsky, built a neural network that could analyze thousands of photos and teach itself to identify common objects, such as flowers, dogs and cars.


2012年、ヒントン博士とトロントの2人の学生、イリヤ・スーツケバーとアレックス・クリシェフスキーは、数千枚の写真を分析し、花、犬、車などの一般的な物体を識別することを独学することができるニューラルネットワークを構築しました。


Google spent $44 million to acquire a company started by Dr. Hinton and his two students. And their system led to the creation of increasingly powerful technologies, including new chatbots like ChatGPT and Google Bard. Mr. Sutskever went on to become chief scientist at OpenAI. In 2018, Dr. Hinton and two other longtime collaborators received the Turing Award, often called “the Nobel Prize of computing,” for their work on neural networks.


グーグルは4400万ドルを投じて、ヒントン博士とその2人の学生が立ち上げた会社を買収しました。そして彼らのシステムは、ChatGPTやグーグルバードのような新しいチャットボットなど、ますます強力なテクノロジーの誕生につながったのです。(ヒントン博士の教え子だった)スーツケバー氏はその後、オープンA.I.の主任研究員となりました。2018年、ヒントン博士と他の2人の長年の共同研究者は、ニューラルネットワークの研究で、「コンピューティングのノーベル賞」とも呼ばれるチューリング賞を受賞しています。


Ilya Sutskever, OpenAI’s chief scientist, worked with Dr. Hinton on his research in Toronto.Credit...Jim Wilson/The New York Times
トロントでヒントン博士と一緒に研究に取り組んでいた、オープンAIの主任研究員であるイリヤ・スーツケバー氏。 Credit...Jim Wilson/The New York Times


Around the same time, Google, OpenAI and other companies began building neural networks that learned from huge amounts of digital text. Dr. Hinton thought it was a powerful way for machines to understand and generate language, but it was inferior to the way humans handled language.


同じ頃、グーグルやオープンAIなどが、ニューラルネット(神経回路)ワークを構築し始めました。それは膨大な量のデジタルテキストから学習するものでした。ヒントン博士は、それは機械が言語を理解し言語を生成する強力な方法ではあるが、人間が言語を操る方法には劣ると考えていました。


Then, last year, as Google and OpenAI built systems using much larger amounts of data, his view changed. He still believed the systems were inferior to the human brain in some ways but he thought they were eclipsing human intelligence in others. “Maybe what is going on in these systems,” he said, “is actually a lot better than what is going on in the brain.”


そして昨年、グーグルとオープンAIがはるかに大量のデータを使ってシステムを構築したことで、彼の見方は変わりました。彼は、依然としてシステムが人間の脳より劣っている部分もあると信じていました。他の部分では人間の知能を凌駕していると思ったのです。「これらのシステムで起こっていることは、もしかしたら脳で起こっていることよりもずっと優れているのかもしれない。」と彼は言いました。


As companies improve their A.I. systems, he believes, they become increasingly dangerous. “Look at how it was five years ago and how it is now,” he said of A.I. technology. “Take the difference and propagate it forwards. That’s scary.”


企業がA.I.システムを改良するにつれて、A.I.システムはますます危険になると彼は考えています。A.I.テクノロジーについて、彼はこのように言いました。「5年前と現在を比べてみてください」、「その違いを前に進めていく。それは恐ろしいことです」。


Until last year, he said, Google acted as a “proper steward” for the technology, careful not to release something that might cause harm. But now that Microsoft has augmented its Bing search engine with a chatbot — challenging Google’s core business — Google is racing to deploy the same kind of technology. The tech giants are locked in a competition that might be impossible to stop, Dr. Hinton said.


昨年まで、グーグルはこの技術の「適切な管理者」として、危害を加えるようなものを公開しないように注意していたと彼は言っています。しかし、今や、マイクロソフトがビーイング検索エンジンをチャットボットで拡張しています。つまり、グーグルのコアビジネスに対抗しようとしていて、グーグルは競って同じような技術を導入しようとしています。このように、巨大なテクノロジー企業は、止めることのできない競争を繰り広げていると、ヒントン博士は言っています。


His immediate concern is that the internet will be flooded with false photos, videos and text, and the average person will “not be able to know what is true anymore.”


彼の当面の懸念は、インターネットに事実ではない写真や動画、文章が溢れ、一般人が "何が真実かわからなくなることです。


He is also worried that A.I. technologies will in time upend the job market. Today, chatbots like ChatGPT tend to complement human workers, but they could replace paralegals, personal assistants, translators and others who handle rote tasks. “It takes away the drudge work,” he said. “It might take away more than that.”


彼はまた、A.I.技術がやがて雇用市場を根底から覆すことも懸念しています。現在、ChatGPTのようなチャットボットは人間の労働者不足を補うものとしてしばしば使われていますが、パラリーガル、パーソナルアシスタント、翻訳者など、型にはまった仕事をこなす人の代わりに使われる可能性があります。「雑務を奪い」、「それ以上のことをやってのけるかもしれない。」と彼は心配しているのです。


Down the road, he is worried that future versions of the technology pose a threat to humanity because they often learn unexpected behavior from the vast amounts of data they analyze. This becomes an issue, he said, as individuals and companies allow A.I. systems not only to generate their own computer code but actually run that code on their own. And he fears a day when truly autonomous weapons — those killer robots — become reality.


こまま進むと、未来の技術が人類の脅威となることを彼は恐れています。この技術は自身の分析で出てきた大量のデータから予期せぬ行動を学習することが多いからです。その結果、個人や企業がA.I.システムに独自のコンピューターコードを生成させるだけでなく、実際にそのコードを実行させるような、厄介なことになると彼は言い、自分で考えて動く兵器、つまり殺人ロボットが現実のものとなる日が来るかもしれないと恐れています。


“The idea that this stuff could actually get smarter than people — a few people believed that,” he said. “But most people thought it was way off. And I thought it was way off. I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that.”


「こういったものが実際に人間より賢くなるかもしれないと、少数の人は考えていました」、「しかし、ほとんどの人は、そういうことはずっと先のことだと思っていました。私も先のことだと思っていました。30~50年、あるいはもっと先の話だと思っていました。はっきり言って、いまはそう思っていません。」


Many other experts, including many of his students and colleagues, say this threat is hypothetical. But Dr. Hinton believes that the race between Google and Microsoft and others will escalate into a global race that will not stop without some sort of global regulation.


彼の教え子や同僚の多くを含め、他の多くの専門家は、この脅威は仮定のものだと言っています。しかし、ヒントン博士は、グーグルやマイクロソフトなどの競争が世界的な競争に発展し、何らかの世界的な規制がなければ止まらなくなると考えています。


But that may be impossible, he said. Unlike with nuclear weapons, he said, there is no way of knowing whether companies or countries are working on the technology in secret. The best hope is for the world’s leading scientists to collaborate on ways of controlling the technology. “I don’t think they should scale this up more until they have understood whether they can control it,” he said.


しかし、それは不可能かもしれないと彼は言います。核兵器と違って、企業や国がこの技術を秘密裏に技術開発を進めているかどうかを知る術はないといいます。最も望ましいことは、世界中の指導的科学者がこの技術のコントロールに協力することです。「コントロールできることがわかるまでは、これ以上規模を拡大すべきではないと思います」と彼は言います。


Dr. Hinton said that when people used to ask him how he could work on technology that was potentially dangerous, he would paraphrase Robert Oppenheimer, who led the U.S. effort to build the atomic bomb: “When you see something that is technically sweet, you go ahead and do it.”


ヒントン博士は、以前、危険な可能性のある技術になぜ取り組むのかとよく聞かれ、そのときにアメリカの原爆製造を主導したロバート・オッペンハイマーの言葉を次のように用いたと言います。 「技術的においしいものを見たら、とりあえず進んでやれ。」と。


He does not say that anymore.


彼は二度とそうは言いません。



オッペンハイマーの言葉は次のように続きがあります。
引用はこちらのサイトからです。


When you see something that is technically sweet, you go ahead and do it and you argue about what to do about it only after you have had your technical success. That is the way it was with the atomic bomb.

技術的においしいものを見たら、とりあえず先にやってしまい、技術的に成功した後に初めてどうするか議論する。原爆の時もそうでした。



私たちはとんでもない未来のことを考えなければならない時代に生きることになりました。人類が本当に賢いかどうかが分かるのは、進むのをやめるという決断ができるかどうかということで証明できるのかもしれません。


Englishラボ
MisTy

×

非ログインユーザーとして返信する