Howdy! How can we help you?
-
気候変動1
-
ブラウザ72
-
戦争36
-
ヘイトスピーチ10
-
偽情報、誤情報7
-
ジェンダー3
-
国家安全保障10
-
fediverse20
-
alternative_app18
-
デジタルセキュリティツール15
-
国内の監視社会化と反監視運動6
-
VPN10
-
GIFCT2
-
政府・国際機関の動向166
-
スパイウェア20
-
OS関係20
-
教育・学校9
-
監視カメラ16
-
労働現場の監視9
-
プライバシー159
-
デジタルID(マイナンバーなど)12
-
GPS1
-
AI78
-
オリンピックと監視社会7
-
文化12
-
労働運動17
-
リンク集12
-
金融監視3
-
COVID-19と監視社会18
-
検閲105
-
海外動向412
-
オンライン会議システム14
-
暗号化69
-
アクティビストとセキュリティ32
-
ビッグテック、大量監視262
-
SNSのセキュリティ20
-
共謀罪1
-
メールのセキュリティ43
-
Articles1
ニューロテクノロジーとAIに関する4つの倫理的優先事項
以下は、2017年にnatureに発表された論文Four ethical priorities for neurotechnologies and AIの翻訳です。
Rafael Yuste, Sara Goering, Blaise Agüera y Arcas, Guoqiang Bi, Jose M. Carmena, Adrian Carter, Joseph J. Fins, Phoebe Friesen, Jack Gallant, Jane E. Huggins, Judy Illes, Philipp Kellmeyer, Eran Klein, Adam Marblestone, Christine Mitchell, Erik Parens, Michelle Pham, Alan Rubel, Norihiro Sadato, Laura Specker Sullivan, Mina Teicher, David Wasserman, Anna Wexler, Meredith Whittaker & Jonathan Wolpaw
Nature volume 551, pages159-163 (2017)Cite this article
7145アクセス
120 シテーション
993 Altmetric
メトリクスの詳細
人工知能やブレインコンピューターインターフェースは、人々のプライバシー、アイデンティティ、エージェンシー、平等性を尊重し、維持しなければならないと、Rafael Yuste、Sara Goeringらは述べる。
次のような場面を考えてみよう。脊髄損傷の男性が、ブレイン・コンピュータ・インターフェース(BCI)の臨床試験に参加している。脳のチップに接続されたコンピューターは、彼が心の中で動作をリハーサルしたときに生じる神経活動を解釈するように訓練されている。このコンピュータは、ロボットアームを動かすコマンドを生成する。ある日、男性は実験チームに不満を感じた。その後、男のロボットハンドが研究助手からコップを奪い、コップを潰し、助手に怪我をさせてしまった。誤動作だったのではないかと謝りつつも、実験チームへの不満が影響しているのではないかと考えてしまう。
これはあくまでも仮定の話だ。しかし、このシナリオは、社会が向かっているかもしれない課題の一部を示している。
現在のBCI技術は、主に脊髄損傷者などの治療効果を目的としている。BCI技術は、コンピュータのカーソルを動かしたり、電動車椅子を操作したりといった、比較的単純な運動タスクを可能にする。さらに、機能的磁気共鳴画像スキャンfunctional magnetic resonance imaging scansから得られる神経活動を、初歩的なレベル[1]―車ではなく人間のことを考えているなど―で解釈することも可能だ。
BCIやその他のニューロテクノロジーが私たちの日常生活の一部になるまでには、数年から数十年かかるかもしれない。しかし、技術の発展は、人々の心のプロセスを解読し、意思、感情、意思決定の根底にある脳のメカニズムを直接操作することが可能になる世界への道を歩んでいることを意味している。また、個人が考えるだけで他人とコミュニケーションできるようになり、人々の脳に直接リンクされた強力な計算システムが世界との相互作用を助け、精神的・身体的能力が大幅に向上する。
このような進歩は、脳損傷や麻痺、てんかんや統合失調症など、多くの疾患の治療に革命をもたらし、人間の経験をより良いものに変える可能性がある。しかし、この技術は、社会的不平等を悪化させ、企業やハッカー、政府などが人々を搾取したり操作したりする新たな方法を提供する可能性もある。また、私的な精神生活、個人の主体性、身体に拘束された存在としての個人に対する理解など、人間の中核的な特性を大きく変える可能性もある。
今のうちに、その影響を考えておくことが重要だ。
Morningside Groupは、ニューロサイエンティスト、ニューロテクノロジスト、臨床医、倫理学者、機械‐インテリジェンスエンジニアなどで構成されている。Google社やKernel社(カリフォルニア州ロサンゼルスにあるニューロテクノロジー関連の新興企業)、国際的な脳プロジェクト、米国、カナダ、ヨーロッパ、イスラエル、中国、日本、オーストラリアの学術研究機関の代表者が参加している。私たちは、2017年5月にニューヨークのコロンビア大学で開催された米国国立科学財団主催のワークショップに集まり、ニューロテクノロジーと機械知能の倫理について議論した。
私たちは、既存の倫理ガイドラインはこの領域[2]にとっては不十分であると考えている。例えば、人間を対象とした医学研究のために1964年に初めて制定された倫理原則の声明であるヘルシンキ宣言(go.nature.com/2z262ag 日本語訳)、生物医学・行動学研究の人間被験者保護のための米国国家委員会が1979年に作成した声明であるベルモントレポート(go.nature.com/2hrezmb 日本語訳)、そして今年初めに発表され、ビジネスリーダーやAI研究者などが署名したアシロマ人工知能(AI)注意原則声明(go.nature.com/2ihnqac)などがある。
この問題に対処するため、ここでは、「プライバシーと同意」、「エージェンシーとアイデンティティ」、「拡張augmentation」、「バイアス」という4つの分野に関連する提言を行う。国や、宗教、民族、社会経済的背景が異なる人々は、それぞれ異なるニーズや展望を持っている。そのため、各国政府は独自の審議機関を設け、社会のあらゆるセクターの代表者が参加するオープンな議論を行い、このガイドラインを具体的な法律や規制などの政策に反映させる方法を決定する必要がある。
インテリジェント投資
世界で最も裕福な投資家の一部は、脳科学とAIの相互作用に賭けている。Kernelとイーロン・マスクが今年立ち上げたスタートアップ企業Neuralinkなど、世界で10数社の企業が、人間の脳活動を「読む」と同時に神経情報を脳に「書き込む」ことができる装置の作成に投資している。現在、営利企業による神経技術への投資は、すでに年間1億ドルに達しており、急速に拡大していると推測される。
また、他の分野からの投資も活発だ。2013年以降、米国のBRAINイニシアティブだけでも、5億ドル以上の連邦資金が神経技術の開発に充てられている。
現在の能力はすでに素晴らしいものだ。筋萎縮性側索硬化症(ALS:ルー・ゲーリッグ病または運動ニューロン病)で麻痺した神経科学者が、BCIを使って研究室の運営、助成金申請書の作成、電子メールの送信を行っている。[3]一方、ノースカロライナ州ダーラムにあるデューク大学の研究者は、電極を埋め込んだ3匹のサルが「ブレインネット」として動作し、アバターの腕を共同で動かすことができることを示した[4]。これらの装置は、インターネットで信号を無線送信すれば、数千キロ離れていても作動できる。
せいぜい数十個のニューロンを刺激してその活動を読み取ることができるような、このような粗い装置はすぐに凌駕されてしまうだろう。今年初め、米国国防高等研究計画局(DARPA)は、「Neural Engineering System Design」というプロジェクトを立ち上げた。これは、100万個の電極を使って同時に脳活動をモニターし、最大10万個のニューロンを選択的に刺激することができるワイヤレスの人間用脳デバイスについて、4年以内に米国食品医薬品局から承認を得ることを目的としている。
一方、Google、IBM、Microsoft、Facebook、Apple、そして多くのスタートアップ企業が、これまで以上に洗練された人工ニューラルネットワークを構築しており、明確に定義された入力と出力を持つタスクでは、すでに人間を凌駕している。
例えば昨年、シアトルにあるワシントン大学の研究者は、GoogleのFaceNetシステムが100万人の中から1人の顔を認識できることを実証した。また、同様のニューラルネットワークアーキテクチャを採用した別のGoogleのシステムでは、街の風景が世界のどこで撮影されたものかを推測する能力で、旅慣れた人間をはるかに凌駕し、この技術の汎用性を実証した。Microsoft社は8月、会話を認識するためのニューラルネットワークは、特定の指標において、文脈の中で使われている言葉を何度も巻き戻して聞くことができる訓練を受けたプロの能力に匹敵すると発表した。また、ドイツ・フライブルク大学の研究者は7月、脳波データを用いて、ニューラルネットワークが計画に関連する脳活動を解読し、ロボットを制御することができることを示した[5]。
実際のニューラルネットワークの仕組みをより深く理解することで得られる将来のニューラルネットワークは、これらの例よりもはるかに強力なものになるに違いない。現在使用されている人工的なネットワークは、麻酔をかけた動物の個々のニューロンの活動を記録することに基づいた50年以上前の脳回路モデルから着想を得ている6。 現在の神経科学研究室では、光学的手法、コンピュータ、分子工学、マイクロエレクトロニクスの進歩により、起きて行動している動物の何千ものニューロンの活動をモニターし、操作することができる。
「世界で最も裕福な投資家の中には、神経科学とAIの相互作用に賭けている人もいる」
私たちはすでに機械と密接につながっている。Googleの研究者は今年、平均的なユーザーが年間100万回近く携帯電話を触っていると計算した(未発表データ)。人間の脳は、音や画像を解読するための聴覚システムや視覚システムを制御し、機器を持ち操作するために手足に命令を出す。しかし、ニューロテクノロジーとAIの発展が融合すれば、人の脳と機械の知能が直接結びつき、脳や身体の通常の感覚運動機能がバイパスされるという、これまでとは質的に異なるものが提供されることになる。
4つの懸念
ニューロテクノロジーが一般消費者市場で普及するためには、現在の脳外科手術に比べて、非侵襲的でリスクが少なく、導入にかかる費用がはるかに少なくて済むことが必要だ。しかし、現在でも、デバイスを開発している企業は、その製品に対して責任を持ち、一定の基準、ベストプラクティス、倫理規範に従わなければならない。
ここでは、早急な対応が求められている4つの問題点を紹介する。これらの問題は、ニューロテクノロジーの文脈で提起されているが、AIにも当てはまる。
プライバシーと同意。人々のデータの痕跡からは、すでに非常に多くの個人情報が得られる。例えば、ケンブリッジにあるマサチューセッツ工科大学の研究者たちは、2015年に、個人所有のデバイスでのキーボード入力パターンから明らかになった人々の運動行動を細かく分析することで、パーキンソン病の早期診断が可能になることを発見した[7]。2017年の研究では、人々が通常の日常活動中にスマートフォンを持ち歩くことで得られるような移動パターンの測定値が、アルツハイマー病に起因する認知障害の初期兆候の診断に利用できることが示唆されている[8]。
広告のターゲット設定、保険料の算出、結婚相手のマッチングなどに使用されるアルゴリズムは、神経情報(例えば、特定の注意状態に関連するニューロンの活動パターンなど)を利用すれば、より強力なものになる。また、インターネットに接続された神経デバイスは、個人や組織(ハッカー、企業、政府機関)が個人の精神的体験を追跡したり、操作したりする可能性を秘めている。
私たちは、市民は自分の神経データを非公開にする能力と権利を持つべきだと考えている(「エージェンシーとアイデンティティ」も参照)。私たちは、これを確実にするために、以下のステップを提案する。
すべての神経データについて、共有を拒否する能力をデフォルトの選択肢とし、慎重に保護する。人々は、自分がプライバシーの何を放棄しているのかを十分に理解することなく、インターネット閲覧、ソーシャルメディア、エンターテイメントなどのサービスを提供する商業的なプロバイダーに対して、容易に自分のプライバシー権を放棄してしまう。オプトアウトをデフォルトとすると、神経データはほとんどの国で臓器や身体組織と同じように取り扱われることになる。どのデバイスからでも神経データを共有するには、個人が明示的にオプトインする必要があります。これには、誰が、どのような目的で、どのくらいの期間データを使用するのかを明確にした同意手続きを含む、安全でセキュアなプロセスが必要となる。
この方法でも、共有を希望する多くの人の神経データを、インターネット検索やフィットネスモニターなどの大量の非神経データと組み合わせることで、共有しないことを選択した個人についての「十分な」結論を導き出すことができる。この問題を解決するために、私たちは、神経データの販売、商業的移転、使用を厳しく規制することを提案する。このような規制は、人々が金銭的報酬のために自分の神経データを提供したり、神経活動を脳に直接書き込ませたりする可能性を制限するもので、1984年に米国で制定された「国家臓器移植法」のように、人間の臓器の販売を禁止する法律と類似しているかもしれない。
もう一つの安全策は、神経データの集中処理を制限することだ。我々は、ユーザーのプライバシーを保護するために、差分プライバシーや「連合学習」などの計算機技術を導入することを提唱している(「プライバシーの保護」を参照)。また、人々のデータを保護するために特別に設計された他の技術を使用することも有効だ。例えば、ブロックチェーンを利用した技術は、データの追跡と監査を可能にする。また、「スマートコントラクトsmart contracts」は、中央集権的な機関を必要とせずに、データの使用方法を透明にコントロールすることができる。最後に、オープンデータのフォーマットとオープンソースのコードがあれば、何を非公開にして何を送信するかについて透明性を高めることができる。
プライバシーを守るために Federated learning連合学習 テクノロジー企業が自社のソフトウェアを改良するために機械学習を利用する場合、通常はユーザーの情報をサーバーに集めて特定のサービスがどのように利用されているかを分析し、集計されたデータをもとに新しいアルゴリズムを学習させる。しかし、Googleの研究者たちは、人工知能を訓練する別の方法として、「連合学習」という実験を行っている。例えば、”weekly “という単語は形容詞と副詞の両方に使えるという知識など、データから集約された学習内容はGoogleのサーバーに送られるが、実際のメールやテキストなどはユーザー自身の携帯電話に残るというものだ。他のグループも同様のアイデアを検討している。このように、設計が改善された情報システムは、個人データに対するユーザーの所有権とプライバシーを高めると同時に、それらのデータに対して価値ある計算を行うことができるようになる。 |
エージェンシーとアイデンティティ。脳に電極を埋め込んで深部脳刺激を受けている人の中には、主体性やアイデンティティの感覚が変化したと報告している人がいる。2016年の研究では、うつ病の治療に脳刺激装置を7年間使用していた男性が、フォーカスグループ9で、自分が他人と接している様子(例えば、振り返ってみると不適切だと思うような発言をしている)が、装置やうつ病のせいなのか、それとも自分自身のより深い部分を反映しているのか、疑問に思うようになったと報告している。彼は「正直なところ、自分が何者なのかよくわからなくなってしまいました」と語る。
ニューロテクノロジーは、人々のアイデンティティーや主体性の感覚を明らかに破壊し、自己の性質や個人の責任(法的または道徳的なもの)に関する中核的な仮定を揺るがす可能性がある。
「オートコンプリート」や「オートコレクト」などの機能を使って、機械学習や脳との連携デバイスが意図と行動の間の変換を迅速に行うことができれば、人々は自分の意思ではない行動をとってしまうかもしれない。また、人が遠く離れた場所から思考によってデバイスを操作できるようになったり、複数の脳が協調して働くようになったりすれば、自分が何者で、どこで行動しているのかという理解が崩れることになるだろう。
ニューロテクノロジーが発展し、企業や政府などが人々に新たな能力を与えようと努力し始めたとき、個人のアイデンティティ(身体的・精神的完全性)とエージェンシー(行動を選択する能力)は基本的人権として保護されなければならない。
私たちは、1948年の世界人権宣言などの国際条約に、このような権利(ニューロライツ)を守る条項を加えることを提案している。しかし、国際的な宣言や法律は国家間の合意に過ぎず、世界宣言でさえも法的拘束力はないので、これだけでは不十分かもしれない。そこで私たちは、2010年に締結された「強制的失踪からすべての人を保護するための国際条約the 2010 International Convention for the Protection of All Persons from Enforced Disappearance」に記載されているような、ニューロテクノロジーや機械知能に関連する禁止行為を定義する国際条約の制定を提唱する。これに関連する国連の作業部会は、署名国の遵守状況を確認し、必要に応じて制裁を勧告することができる。
このような宣言は、神経技術の認知的および感情的な影響について教育を受ける人々の権利も保護しなければならない。現在、一般的な同意書は、手術の物理的なリスクのみに焦点を当てており、デバイスが気分や性格、自己意識に与える可能性のある影響については書かれていない。
拡張Augmentation。人は、自分の体や脳の機能が他の人と異なると、しばしば偏見を持つ[10]。持久力や感覚、精神的な能力を飛躍的に向上させるような強化型の神経技術を導入する圧力は、社会的規範を変え、アクセスの公平性の問題を提起し、新たな形の差別を生み出す可能性が高い。
さらに、オーグメンテーションの軍拡競争が起こることも容易に想像できる。ここ数年、DARPAや米国のIntelligence Advanced Research Projects Activityのスタッフが、兵士や分析者に強化された精神的能力(「超知能エージェント」)を提供する計画について話しているのを耳にした。これらは、戦闘時やデータストリームの解読に使用されるだろう。
どのような技術が人間の生活に悪影響を及ぼすかを予測することは難しいため、どのような線引きも曖昧になることは避けられない。しかし、人間の遺伝子編集と同じように、国際的にも国家的にもガイドラインを策定して、実施可能な拡張神経技術に制限を設け、それらを使用できる状況を定義することを強く求める。
プライバシーと個性は、ある文化では他の文化よりも高く評価される。したがって、規制の決定は、普遍的な権利と世界的なガイドラインを尊重しつつ、文化固有の文脈の中で行われる必要がある。また、特定の技術を全面的に禁止することは、単にその技術を地下に押し込めることになりかねない。そのため、特定の法律や規制を確立するための努力には、綿密でオープンな議論を可能にする組織的なフォーラムが必要だ。
「特定の技術を全面的に禁止することは、単にそれらを地下に押し込めてしまうことになりかねません。」
このような取り組みは、国際的なコンセンサスを構築し、国レベルの科学的意思決定に世論を取り入れるための多くの先例を参考にすべきである[11]。例えば、第一次世界大戦後、1925年に開催された会議をきっかけに、化学兵器や生物兵器の使用を禁止する条約であるジュネーブ議定書が制定され、批准された。同様に、第二次世界大戦後には、平和目的の原子力利用と核兵器の拡散防止を目的として、国連原子力委員会が設立された。
特に、軍事目的での神経技術の使用を厳しく規制することを勧告したい。当然のことながら、モラトリアムは国連主導の委員会が主催するグローバルなものでなければならない。このような委員会や同様の取り組みは、すべての強化課題を解決するものではないかもしれないが、自制の必要性を公に認め、技術の開発と実施に広く意見を反映させるための最良のモデルを提供するものである。
バイアス。科学技術の決定が、狭い範囲の体系的、構造的、または社会的な概念や規範に基づいて行われると、結果として得られる技術が特定のグループを優遇し、他のグループに害を及ぼす可能性がある。2015年の研究[12]では、Googleの広告アルゴリズムによって女性ユーザーに表示された求人情報は、男性に表示された求人情報よりも報酬が低いことが判明した。同様に、昨年のProPublicaの調査では、米国の法執行機関が使用しているアルゴリズムが、同じような犯罪歴を持つ白人被告よりも黒人被告の方が再犯する可能性が高いと誤って予測していることが明らかになった(go.nature.com/29aznyw)。このようなバイアスは、神経デバイスに組み込まれる可能性がある。実際、この種のケースを調査した研究者たちは、数学的に厳密な方法で公正さを定義することは非常に難しいことを示している(go.nature.com/2ztfjt9)。
技術の偏りに対抗するための実用的な手段は、すでに産業界や学術界で議論されている。このような継続的な公開討論や議論は、問題のあるバイアスや、より一般的な正常性の定義を形成するために必要である。
私たちは、偏りへの対策が機械学習の規範となることを提唱する。また、技術開発の最初の段階から偏りに対処するためのもう一つの方法として、確率的なユーザーグループ(特に、すでに疎外されている人たち)がアルゴリズムやデバイスの設計に意見を述べることを推奨する。
責任ある神経工学
これらの提言の多くは、このような変化をもたらすデバイスやシステムの開発に伴う責任を、産業界や学術研究者が負うことを求めている。その際には、すでに開発されている責任あるイノベーションのためのフレームワークを利用することができる。
例えば、英国工学物理科学研究評議会は、前述のガイドラインに加えて、「社会的に望ましく、公共の利益のために行われる科学とイノベーションの機会を促進する」方法で、イノベーターが「予測し、反映し、関与し、行動する」ことを奨励する枠組みを提供している。AIにおけるさまざまな取り組みの中でも、IEEE Standards Associationは2016年4月に、すべてのAIや自律システムのプロセス設計に倫理を組み込むことを目的としたグローバル倫理イニシアチブを創設した。
歴史を振り返ると、企業の世界では利益追求が社会的責任に優先することが多い。また、たとえ個人レベルでは、ほとんどの技術者が人類のためになることを目指していたとしても、準備のできていない複雑な倫理的ジレンマに直面することがある。私たちは、倫理的な行動規範を産業界や学術界に組み込むことで、考え方が変わり、機器の生産者がより良い環境に身を置くことができると考えている。
その第一歩として、技術者や開発者、学術研究者が入社する際の標準的な教育の一環として、倫理観を身につけてもらうことが考えられる。社会を破壊するのではなく、社会に建設的な貢献をするためには、どのような進歩や戦略が必要なのかを深く考えることを従業員に教えることができます。
このようなアプローチは、基本的には医学の世界にも通じるものがある。医学生は、患者の守秘義務、非加害性、利得と正義の義務について教えられ、職業上の最高水準を守るためにヒポクラテスの誓いを立てることが求められる。
神経技術がもたらす臨床的・社会的な利益は膨大なものだ。それを享受するためには、人類の最良の部分を尊重し、保護し、可能にする方法で、その開発を導かなければならない。
プライバシーの保護 協調学習
テクノロジー企業が自社のソフトウェアを改良するために機械学習を利用する場合、通常、ユーザーの情報をサーバーに集めて特定のサービスがどのように利用されているかを分析し、集約されたデータをもとに新しいアルゴリズムを学習させる。しかし、Googleの研究者たちは、人工知能を訓練する別の方法として、「フェデレーテッド・ラーニング federated learning.」という実験を行っている。例えば、”weekly “という単語は形容詞と副詞の両方に使えるという知識など、データから集約された学習内容はGoogleのサーバーに送られるが、実際のメールやテキストなどはユーザー自身の携帯電話に残るというものだ。他のグループも同様のアイデアを検討している。このように、デザインが改善された情報システムは、個人データに対するユーザーの所有権とプライバシーを強化すると同時に、そのデータに対して価値のある計算を実行できるようになる。
References
- 1Kay, K. N., Naselaris, T., Prenger, R. J. & Gallant, J. L. Nature 452, 352–355 (2008).ADS CAS Article Google Scholar
- 2Goering, S. & Yuste, R. Cell 167, 882–885 (2016).CAS Article Google Scholar
- 3Sellers, E. W., Vaughan, T. M. & Wolpaw, J. R. Amyotrophic Lateral Sclerosis 11, 449–455 (2010).Article Google Scholar
- 4Ramakrishnan, A. et al. Sci. Rep. 5, 10767 (2015).ADS Article Google Scholar
- 5Burget, F. et al. Preprint at http://arxiv.org/abs/1707.06633 (2017).
- 6Hubel, D. H. & Wiesel, T. N. J. Physiol. (Lond.) 160, 106–154 (1962).CAS Article Google Scholar
- 7Giancardo, L., Sánchez-Ferro, A., Butterworth, I., Mendoza, C. S. & Hooker, J. M. Sci. Rep. 5, 9678 (2015).ADS CAS Article Google Scholar
- 8Nieto-Reyes, A., Duque, R., Montana, J. L. & Lage, C. Sensors 17, 1679 (2017).Article Google Scholar
- 9Klein, E. et al. Brain-Computer Interfaces 3, 140–148 (2016).Article Google Scholar
- 10Parens, E. Shaping Our Selves: On Technology, Flourishing, and a Habit of Thinking (Oxford Univ. Press, 2014).Book Google Scholar
- 11Kitcher, P. Science in a Democratic Society (Prometheus, 2011).Book Google Scholar
- 12Datta, A., Tschantz, M. C. & Datta, A. Proc. Priv. Enhancing Technol. 2015, 92–112 (2015).Article Google Scholar
Author information
Affiliations
- professor of biological sciences at Columbia University, New York City, New York, USARafael Yuste
- associate professor of philosophy at the University of Washington, Seattle, USASara Goering
- Blaise Agüera y Arcas is at Google, Mountain View, California, USABlaise Agüera y Arcas
- University of Science and Technology of China, Hefei, ChinaGuoqiang Bi
- University of California, Berkeley, USAJose M. Carmena
- Monash University, Melbourne, AustraliaAdrian Carter
- Weill Cornell Medicine, New York City, USAJoseph J. Fins
- New York University, New York City, USAPhoebe Friesen
- University of California, Berkeley, USAJack Gallant
- University of Michigan, Ann Arbor, USAJane E. Huggins
- University of British Columbia, Vancouver, CanadaJudy Illes
- University of Freiburg Medical Centre, GermanyPhilipp Kellmeyer
- University of Washington, SeattleEran Klein
- Oregon Health &Eran Klein & Meredith Whittaker
- Science University, Portland, USAEran Klein
- Kernel, Los Angeles, CaliforniaAdam Marblestone
- Massachusetts Institute of Technology Media Lab, Cambridge, Massachusetts, USAAdam Marblestone & Jonathan Wolpaw
- Harvard University, Cambridge, Massachusetts, USAChristine Mitchell
- The Hastings Center, Garrison, New York, USAErik Parens
- University of Washington, Seattle, USAMichelle Pham
- University of Wisconsin-Madison, Wisconsin, USAAlan Rubel
- the National Institute for Physiological Sciences, Okazaki, Aichi, JapanNorihiro Sadato
- University of Washington, Seattle, USALaura Specker Sullivan
- Bar-Ilan University, Ramat Gan, IsraelMina Teicher
- the University of Maryland, College Park, Maryland, USADavid Wasserman
- University of Pennsylvania, Philadelphia, Pennsylvania, USAAnna Wexler
- AI Now, New York City, USAMeredith Whittaker
- the National Center for Adaptive Neurotechnologies, Albany, New YorkJonathan Wolpaw
Corresponding authors
Correspondence to Rafael Yuste or Sara Goering.