AI & Climate Data-Driven ELSI-RRI Study

AIと気候のデータ駆動型ELSI-RRI研究



About the Project / 本プロジェクトについて

2023 July : The Kavli Institute for the Physics and Mathematics of the Universe (Kavli IPMU) receives support from The Kavli Foundation for a research project on Science and Society led by Professor Hiromi Yokoyama. The project will embark on data-driven studies that will bring Asian perspectives into the global discussions surrounding a subset of ethical, legal and social issues (ELSI) associated with Artificial Intelligence and Climate Engineering.(press release)

2023年7月、東京大学国際高等研究所カブリ数物連携宇宙研究機構(Kavli IPMU)の横山広美教授/副機構長の主導する Score ELSI プロジェクトに対する、米国カブリ財団からの支援が決定しました。データ駆動型、アジアの視点を重視して、AIや気候工学技術に対して人々が感じる倫理的・法的・社会的課題 (Ethical Legal and Social Issues:ELSI) を数値で可視化する研究を行います。プレスリリース)

気候工学の中でも太陽遮蔽工学を扱います。また、倫理学のフレームを用いたELSI-RRIシートを開発して、日本、アメリカのほか西・南・東アジアのデータを取得し分析します。


2023- Members / メンバー

  • Tilman Hartwig, Chief Data Scientist, German Environment Agency (UBA)
  • Yuko Ikkatai, Associate Professor, Institute of Human and Social Sciences, Kanazawa University
  • Nobutsugu Kanzaki, Professor, Nanzan University
  • Shotaro Kinoshita, Project Assistant Professor, School of Medicine, Keio University
  • Momoyo Matsuyama, Associate Professor, Institute of Industrial Science, The University of Tokyo
  • Hirosi Ooguri, Kavli IPMU, The University of Tokyo and Fred Kavli Professor, California Institute of Technology
  • Samuel Charles Passaglia, Posdoc, Kavli IPMU, The University of Tokyo
  • Shizuka Sasaki, Professor, Buddhism Department, Hanazono University
  • Masahiro Sugiyama, Associate Professor, Institute for Future Initiatives, The University of Tokyo
  • Naohiro Takanashi, Project Associate Professor, Executive Management Program, The University of Tokyo
  • Hiromi Yokoyama, Professor, Kavli IPMU, The University of Tokyo (PI)
  • Yasushi Ando, PhD student, The University of Tokyo
  • Former member: Dr. Samuel Charles Passaglia
  • 一方井祐子 金沢大学人間社会研究域人間科学系 准教授
  • 大栗博司 東京大学国際高等研究所カブリ連携宇宙研究機構 機構長/カリフォルニア工科大学 フレッド・カブリ冠教授
  • 神崎宣次 南山大学国際教養学部国際教養学科 教授
  • 木下翔太郎 慶應義塾大学医学部 特任助教
  • 佐々木閑 花園大学文学部仏教学科 教授
  • 杉山昌広 東京大学未来ビジョン研究センター 准教授
  • 高梨直紘 東京大学エグゼクティブ・マネジメント 特任准教授
  • Tilman Hartwig ドイツ連邦環境庁 チーフデータサイエンティスト
  • 松山桃世 東京大学生産技術研究所 准教授
  • 横山広美 東京大学国際高等研究所カブリ連携宇宙研究機構 教授(PI)
  • 安藤靖 東京大学学際情報学府博士1年

  • Recent news

    2024.3 Nature review Physics (view point) Generative AI and science communication in the physical sciences

    2023.7 Nature Correspondence "Large language model is a flagship for Japan" Shoraro Kinoshita and Hiromi Yokoyama

    2023.5 Nikkei newspaper / 日経新聞(経済教室)AI倫理の指針「AI8原則」の順守を 人工知能と社会  横山広美




    Ongoing Joint research / 進行中の共同研究

  • AI Diversity research / AIダイバーシティ研究
  • The first phase members and B'AI members are conducting research on AI diversity. / 第1フェーズメンバーとB'AIのメンバーで、AIダイバーシティの研究を行っています。

  • AI Face recognition research / AI顔認証研究
  • We are collaborating ELSI research on face recognition, mainly at the Technical University of Munich. /ミュンヘン工科大学を中心に、顔認証についてのELSI研究を行っています。




    2020-2023 ELSI researach/ ELSIスコア

    Score ELSI Project / 科学技術の倫理を測る

    The ELSI project (2020.1-2022.12) supported by SECOM Science and technology Foundation is to develop a simple scale to measure the ELSI of advanced science and technology, such as AI and genome editing, for scientists and engineers in R&D.

    セコム科学技術振興財団 特定領域研究助成 ELSI分野(領域代表:小林傳司) 「AI、ゲノム編集等の先進科学技術における科学技術倫理指標の構築」は、2020.1に始まりました。ELSIとは、科学技術の倫理的・法的・社会的課題(Ethical, Legal and Social Issues)を指します。本プロジェクトはAIやゲノム編集等の先端的な科学技術のELSIを、研究開発現場の科学技術者が簡易に測定できるための尺度開発を目標にしています。

    日本語バージョン: AIテクノロジーELSIに対するオクタゴン尺度


    Papers / 論文

    2022/9/2 OPEN ACCESS Ikkatai, Y., Hartwig, T., Takanashi, N. et al. Segmentation of ethics, legal, and social issues (ELSI) related to AI in Japan, the United States, and Germany. AI Ethics (2022). https://doi.org/10.1007/s43681-022-00207-y(press release, プレスリリース)

    Abstract:Artificial intelligence (AI) is often accompanied by public concern. In this study, we quantitatively evaluated a source of public concern using the framework for ethics, legal, and social issues (ELSI). Concern was compared among people in Japan, the United States, and Germany using four different scenarios: (1) the use of AI to replicate the voice of a famous deceased singer, (2) the use of AI for customer service, (3) the use of AI for autonomous weapons, and (4) the use of AI for preventing criminal activities. The results show that the most striking difference was in the response to the “weapon” scenario. Respondents from Japan showed greater concern than those in the other two countries. Older respondents had more concerns, and respondents who had a deeper understanding of AI were more likely to have concerns related to the legal aspects of it. We also found that attitudes toward legal issues were the key to segmenting their attitudes toward ELSI related to AI: Positive, Less skeptical of laws, Skeptical of laws, and Negative.

    EとLとSを測定する3つの項目(論文2の結果)を用い、日米独で4つのシナリオを測定した。これを用いて、ELSの3次元の中で、人々を意見の傾向の異なる4つのグループに分けることが理想的であることがわかった。今後、議論の際などにこの4つのグループ分けが有用であると考えている。


    2022/1/22 OPEN ACCESS Hartwig, T., Ikkatai, Y., Takanashi, N. & Yokoyama, H.M. (2022). 'Artificial intelligence ELSI score for science and technology: a comparison between Japan and the US'. AI & Soc. https://doi.org/10.1007/s00146-021-01323-9

    Abstract:For this study, we developed an AI ethics scale based on AI-specific scenarios. We investigated public attitudes toward AI ethics in Japan and the US using online questionnaires. We designed a test set using four dilemma scenarios and questionnaire items based on a theoretical framework for ethics, legal, and social issues (ELSI). We found that country and age are the most informative sociodemographic categories for predicting attitudes for AI ethics. Our proposed scale, which consists of 13 questions, can be reduced to only three, covering ethics, tradition, and policies. This new AI ethics scale will help to quantify how AI research is accepted in society and which area of ELSI people are most concerned with.

    ELSIのEとLとSの併せて13項目を用意し、4つのジレンマシナリオについて日米で測定を行った。特徴を分けるのは国、年齢の順であることがわかった。また、重要な項目はEとLとSの1つずつに絞り込むことができるとわかった。ELSIを元にしたAI倫理測定が可能かもしれない。

    talk by T. Hartwig
    2022/1/11 OPEN ACCESS Y.Ikkatai, T.Hartwig, N.Takanashi & H.M. Yokoyama (2022). 'Octagon Measurement: Public Attitudes toward AI Ethics', International Journal of Human–Computer Interaction (プレスリリース, English press release)

    Abstract:Artificial intelligence (AI) is rapidly permeating our lives, but public attitudes toward AI ethics have only partially been investigated quantitatively. In this study, we focused on eight themes commonly shared in AI guidelines: “privacy,” “accountability,” “safety and security,” “transparency and explainability,” “fairness and non-discrimination,” “human control of technology,” “professional responsibility,” and “promotion of human values.” We investigated public attitudes toward AI ethics using four scenarios in Japan. Through an online questionnaire, we found that public disagreement/agreement with using AI varied depending on the scenario. For instance, anxiety over AI ethics was high for the scenario where AI was used with weaponry. Age was significantly related to the themes across the scenarios, but gender and understanding of AI differently related depending on the themes and scenarios. While the eight themes need to be carefully explained to the participants, our Octagon measurement may be useful for understanding how people feel about the risks of the technologies, especially AI, that are rapidly permeating society and what the problems might be.

    各国・団体が用意するAIガイドラインの共通部分が8つに絞り込まれている。これに注目をし、AI倫理を問う異なる4つのジレンマシナリオを用意し測定をした。これを「オクタゴン測定」と名付けて、AI倫理の測定として提案していきたい。

    English version : Octagon mesurement for AI technology ELSI

    日本語バージョン: AIテクノロジーELSIに対するオクタゴン尺度

    talk by H. Yokoyama