Home 전자·IT·통신 동물 의식 연구자들은 지각 있는 AI의 복지를 위한 계획을 세워야 한다고 주장합니다.

동물 의식 연구자들은 지각 있는 AI의 복지를 위한 계획을 세워야 한다고 주장합니다.

28
0



컴퓨터 과학자들은 우연히 지각이 있는 인공 지능(AI)을 생성할 가능성을 염두에 두고 이러한 시스템의 복지를 계획해야 한다고 새로운 연구에서 주장합니다.

목요일에 발표된 보고서는 특이한 분기에서 나온 것입니다. 동물 의식의 개척 분야의 전문가들 중 몇몇은 서명자였습니다.동물 의식에 관한 뉴욕 선언.

The Hill이 4월에 보도한 바와 같이, 그 선언은주장하다과학자들과 대중이 동물계 전반에 걸쳐 지각이 널리 퍼져 있다는 증거가 점점 늘어나고 있다는 사실을 무시하는 것은 “무책임”하다는 것입니다.

AI 복지 보고서는 4월의 동물 의식과 유사한 도덕적, 지적 프레임워크를 기반으로 구축되었습니다. 즉, 인간은 자신의 이미지로만 감각을 인식하는 경향이 있으며 함께 살고 있거나 창조하는 존재 모두에 위험을 초래한다는 아이디어입니다. 그들 자신.

새와 포유류의 감각을 암시하는 데이터 —게와 새우까지— AI 복지 보고서와 동물 의식 선언을 공동 집필한 뉴욕 대학의 생명 윤리학자인 Jeff Sebo는 인간이 개발하고 있는 최첨단 기계 도구의 자기 인식에 대한 어떤 증거보다 훨씬 중요하다고 인정했습니다.

그러나 향후 10년 동안 자기 인식 인공 생명체를 만들 확률은 “객관적으로 낮을” 수 있지만 개발자가 최소한 그것에 대해 생각해 볼 필요가 있을 만큼 충분히 높다고 Sebo는 말했습니다.

일반적으로 인간, 즉 문어의 의식은 우연히 발생했다고 가정하지만, 인간은 의식과 관련된 바로 그 특성을 의도적으로 모방하기 위해 의도적으로 AI를 적극적으로 조작하고 있습니다.

여기에는 “지각, 주의력, 학습, 기억, 자기 인식”이 포함됩니다. 이러한 능력은 유기체의 의식 진화와 함께 진행되었을 수 있습니다.

의식 연구는 현재 의식의 전제 조건이 실제로 무엇인지에 대한 치열한 논쟁의 장입니다. 탄소 분자 사슬로 만들어진 질퍽한 세포가 필요한지, 아니면 육체가 필요한지.

그러나 Sebo는 AI 개발자가 다른 작업을 시도하는 과정에서 실수로 또는 의도적으로 의식 시스템을 만들 수 있는 가능성을 배제하는 의식에 대해 현재 우리가 이해하는 것이 거의 없다고 말했습니다. “그들은 의식 있는 AI를 더 안전하거나 더 유능한 AI로 보기 때문입니다. ”

어떤 경우에는 이러한 시스템을 개발하는 작업이 말 그대로 감각이 있는 유기체의 구조를 모방하려는 시도입니다. 지난 6월 네이처(Nature)지에 발표된 연구 결과에서 하버드와 구글 딥마인드(DeepMind)는가상 쥐를 만들었습니다살과 피를 가진 설치류의 “신체에 대한 절묘한 통제”를 모방할 수 있는 시뮬레이션된 뇌를 가지고 있습니다.

디지털 쥐가 있다고 믿을 특별한 이유는 없습니다.그것이 제공한 통찰력척추동물의 뇌가 어떻게 기능하는지에 대해 — DeepMind 자체는 자각하고 있지만채용 공고“기계 인지(및) 의식에 관한 최첨단 사회적 질문”을 연구할 수 있는 컴퓨터 과학 박사 학위를 취득하기 위한 것입니다.

그리고 동물 연구자와 유아의 부모 모두가 이해하고 있듯이 감각은 ​​지능과 완전히 별개의 것입니다.

그러나 어떤 의미에서 이것은 세보와 그의 공동저자들이 간단히 제기하고 있는 문제이다. 그들은 개발자들과 일반 대중이 지능을 갖춘 AI의 시대에 대처하기에는 부적절하게 설정되어 있는 진화적 사각지대를 가지고 있다고 주장합니다.

목요일 논문의 공동 저자이자 AI 의식을 조사하는 연구 그룹인 Eleos AI의 전무이사인 Rob Long은 “우리는 진화와 평생 학습을 통해 기본 메커니즘을 인식하거나 추적하도록 설계되지 않았습니다.”라고 말했습니다.

수십억 년에 걸쳐 우리의 혈통은 “무언가가 어떻게 보이고 움직이고 행동하는지에 대한 상대적으로 천박하고 준비된 경험적 접근 방식을 기반으로 마음의 존재 여부를 판단하기 위해 진화했으며 이는 우리에게 큰 도움이 되었습니다.”라고 Long은 말했습니다. 안 먹어.”

그러나 그는 뇌 구조로 인해 감각이 속하지 않는 곳에 감각을 잘못 부여하기 쉽다고 말했습니다. 아이러니하게도 Sebo와 Long은 이렇게 하면 감각을 가질 가능성이 가장 낮은 기계인 챗봇에 감각을 부여하는 것이 가장 쉽다고 지적했습니다.

Sebo와 Long은 이러한 역설이 챗봇에 거의 내장되어 있다고 주장했습니다. 챗봇은 점차 인간의 특징, 즉 언어를 유창하게 말하는 능력을 모방하고 있으며, OpenAI와 같은 회사는 웃고, 빈정거림을 사용하고, 삽입하는 새로운 모델을 통해 이러한 특징을 강화했습니다. “음”과 음성 틱.

Sebo는 “향후 수십 년 동안 AI 시스템이 실제로 생각과 감정을 가지고 있는지에 대한 매우 심각한 불일치와 불확실성이 있는 상황에서 동반자와 지원으로 프레임된 AI 시스템의 배치가 점점 더 정교하고 대규모로 이루어질 것입니다.”라고 말했습니다.

이는 인간이 그러한 시스템에 대해 “일종의 양면 감정”을 키워야 한다는 것을 의미한다고 그는 말했습니다. “그들이 자신이 되는 것이 어떤 것인지, 그리고 우리가 그들에 대해 가질 수 있는 어떤 감정이 보답되는지에 대한 불확실성”이라고 그는 말했습니다.

Sebo는 이러한 양가감정에는 또 다른 측면이 있다고 말했습니다. 인간이 고의적으로 또는 우연히 고통을 느끼고 고통을 받을 수 있는 시스템을 만들 수 있거나 어떤 형태의 도덕적 행위자(일을 원하고 이를 실현하려고 노력하는 능력)를 가질 가능성이 있다고 그는 주장했습니다. 컴퓨터 과학자들이 해당 시스템에서 수행하기를 원하는 작업과 나란히 위치하지 않습니다.

동물의 경우, 감각을 과소평가하는 결과는 명백하다고 Sebo는 지적했습니다. “농장 동물과 실험 동물을 통해 우리는 이제 식량을 위해 매년 수천억 마리의 사육 동물을 죽이고, 연간 수조 마리의 야생 동물을 죽입니다. 전부는 아니지만 부분적으로는 그들의 의식 능력과 도덕적 중요성을 과소평가했기 때문입니다.”

그는 그 예가 인간이 “동물의 상황을 개선”하려고 노력할 때 AI로 반복하지 말아야 할 실수에 대한 경고 역할을 해야 한다고 말했습니다.

Sebo와 Long은 새로운 풍경을 탐색하려는 인간의 또 다른 주요 문제는 우리처럼 보이는 것에서 감각을 보는 종 전체의 경향을 제외하고 실제로 무엇을 잘못 특성화하는 대중 문화 풍경이라고 덧붙였습니다. 지각 있는 AI는 다음과 같을 수 있습니다.

Pixar의 Wall-E 및 Steven Spielberg의 AI와 같은 영화에서 지각 있는 로봇은 적어도 몇 가지 주요 측면에서 무장 해제할 정도로 인간과 유사합니다. 그들은 신체 내부에 살고 물리적 세계를 통해 이동하는 인간의 감정을 인식할 수 있는 단일하고 개별적인 지능입니다.

그런 다음 터미네이터 시리즈의 기계 지능인 스카이넷(Skynet)이 있습니다. 스카이넷은 AI 안전 대화를 위한 자석 역할을 하여 신흥 컴퓨터 기술에 대한 대중 담론을 1980년대 액션 영화의 내러티브 관습으로 되돌리도록 지속적으로 유도합니다.

Sebo는 이 중 어느 것도 특별히 도움이 되지 않는다고 주장했습니다. 그는 “AI, 복지, 진실은 허구보다 더 이상할 수 있으며 우리는 그러한 가능성에 대비해야 한다”고 말했다.

우선, 디지털 정신은 인간과 동물의 정신처럼 서로 분리되지 않을 수도 있다고 Sebo는 말했습니다. “그들은 우리와는 다른 방식으로 서로 고도로 연결될 수 있습니다. 그들은 뉴런이 서로 다른 위치에 퍼져 있고 서로 밀접하게 연결되어 있을 수 있습니다.”

이러한 의식 형태는 머리에 중앙 뇌가 있고 팔에 8개의 더 작고 반독립적인 뇌가 있는 문어의 의식 형태와 잠재적으로 더 유사합니다.

Sebo는 AI가 “상호 연결된 마음을 통해 그 방향으로 폭발적인 가능성을 가져올 수 있으며, 자아와 정체성, 개성의 본질과 한 개인이 끝나고 다음 개인이 시작되는 위치에 대해 발생하는 질문”을 가져올 수 있다고 말했습니다.

잠재적인 AI 의식이 궁극적으로 어떤 형태를 취할지, 그리고 그것이 가능한지 여부에 관계없이 Sebo, Long 및 공동 저자는 AI 개발자가 이러한 잠재적 문제를 인정하고 자신이 구축 중인 도구에 어떻게 적합한지 평가하는 것이 의무라고 주장했습니다. 그리고 그러한 도구가 일종의 감각을 갖게 되는 가능한 미래를 준비하십시오.

이것이 어떤 모습일 수 있는지에 대한 한 가지 가능한 아이디어는 캘리포니아 대학교 리버사이드 철학자 Eric Schwitzgebel이 제안했습니다. 그는 AI 프로그램이 제시하는 감각의 정도가 감각의 정도와 직접적으로 관련되어야 한다는 “감정적 정렬” 정책을 주장했습니다. 그럴 가능성이 높습니다.

인간이 언젠가 감각이 있는 AI를 설계한다면 슈비츠게벨은 이렇게 썼습니다. “우리는 일반 사용자가 도덕적 지위에 적합한 방식으로 감정적으로 반응할 수 있도록 설계해야 합니다. 인간과 같은 목표, 합리성, 미래에 대한 생각을 가지고 진정한 고통과 고난을 겪을 수 있는 인간급 AI를 설계하지 말고 사람들이 무심코 재구성하려는 경향이 있는 평범한 상자에 넣지 마십시오.”

그리고 이와 대조적으로 “AI가 애완용 고양이와 마찬가지로 중간 수준의 관심을 보장한다면 사용자가 그 정도의 관심만을 갖도록 장려하는 인터페이스를 제공하십시오.”

이는 챗봇과 대규모 언어 모델 산업을 극적인 유턴으로 몰아넣는 정책이라고 Sebo는 인정했습니다.

전반적으로 그는 그와 새 기사의 다른 공동 저자들이 문제가 되기 전에 직면해야 할 문제에 대한 대화를 강요하기 위해 이 글을 썼다고 말했습니다. “그리고 우리는 이렇게 극도로 유능하고 복잡한 시스템을 구축하는 사람들이 이것이 주의를 기울여야 할 중요하고 어려운 문제라는 점을 인식하는 것이 좋을 것이라고 생각합니다.”



Source link