banner

소식

Sep 06, 2023

AI가 인류를 멸종으로 몰아갈 수는 없지만 해로울 수 있다

AI는 이미 매우 취약한 일부 사람들에게 피해를 주고 있습니다.

350명 이상의 기술 전문가, AI 연구원 및 업계 리더들이 지난 주 AI 안전 센터에서 발표한 AI 위험에 관한 성명서에 서명했습니다. 이는 우리 모두를 위한 매우 짧고 간결한 한 문장으로 된 경고입니다.

AI로 인한 멸종 위험을 완화하는 것은 전염병 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적인 우선순위가 되어야 합니다.

그래서 적극적으로 AI를 전 세계에 전파하고 있는 Google, Microsoft의 실무 엔지니어를 포함한 AI 전문가들은 AI가 핵전쟁과 같은 맥락에서 세계적인 멸종 사건이 될 가능성이 있다고 생각합니다. 좋아요.

나는 많은 사람들이 이 성명을 처음 읽었을 때와 똑같은 생각을 했다는 것을 인정합니다. 그것은 말장난입니다. 예, AI에는 많은 문제가 있으며 일부 기술 및 뉴스 회사가 하는 것처럼 AI에 의존하기에는 다소 이르다고 생각하지만 그런 종류의 과장은 어리석은 것입니다.

그런 다음 Bard Beta Lab AI 인터넷 검색을 수행하여 AI가 이미 해롭다는 여러 가지 방법을 발견했습니다. 사회에서 가장 취약한 사람들 중 일부는 생성 AI와 이러한 스마트 컴퓨터가 실제로 얼마나 어리석은지 때문에 더욱 위험에 처해 있습니다.

전국 섭식 장애 협회(National Eating Disorders Association)는 2023년 5월 25일 헬프라인 운영자를 해고하고 ChatBot Tessa로 대체했습니다. 노동자들은 노동조합을 결성하는 중이었지만 NEDA는 "이것은 오랫동안 기다려온 변화였으며 AI가 섭식장애가 있는 사람들에게 더 나은 서비스를 제공할 수 있다"고 주장했으며 6명의 유급 직원 및 다양한 자원봉사자가 노동조합을 결성하려는 것과는 아무런 관련이 없다고 주장했습니다.

2023년 5월 30일, NEDA는 심각한 섭식 장애가 있는 사람들에게 해로운 조언을 제공하는 ChatBot Tessa를 비활성화했습니다. 공식적으로 NEDA는 "우려하고 있으며 기술 팀 및 연구팀과 협력하여 이를 추가로 조사하고 있습니다. 해당 언어는 섭식 장애 조직으로서의 우리 정책 및 핵심 신념에 위배됩니다."

미국에는 심각한 섭식 장애를 앓고 있는 사람이 3천만 명에 달하며 매년 10,200명이 그로 인한 직접적인 결과로 사망합니다. 매 시간마다 하나씩.

그리고 AI를 자살 충동을 느끼는 십대에 대한 실험으로 사용한 정신 건강 비영리 단체인 Koko가 있습니다. 예, 당신이 읽은 것이 맞습니다.

위험에 처한 사용자는 소셜 미디어에서 Koko의 웹사이트로 유입되어 각각 두 그룹 중 하나로 분류되었습니다. 한 그룹에는 필요한 도움과 지원을 찾을 수 있는 실제 위기 핫라인의 전화번호가 제공되었습니다.

다른 그룹은 코코의 실험을 통해 퀴즈를 풀고 자신의 생각을 촉발한 요인과 그에 대처하기 위해 무엇을 하고 있는지 확인하라는 요청을 받았습니다.

작업이 완료되면 AI는 그들에게 다음 날 휴대폰 알림을 확인할 것인지 물었습니다. 대답이 '예'라면 "고마워요! 여기 고양이가 있습니다!"라는 메시지가 화면으로 밀려났습니다. 물론 고양이 사진도 있었고, 이 사진을 만드는 데 도움을 준 코코와 AI 연구원은 어떻게든 상황이 나아질 것이라고 생각했다.

나는 AI가 정신 건강으로 어려움을 겪고 있는 사람들에게 진단이나 도움을 제공하는 데 사용되는 이와 같은 상황의 윤리에 대해 말할 자격이 없습니다. 저는 스마트폰을 주로 다루는 기술 전문가입니다. 하지만 대부분의 인간 전문가들은 이러한 관행에 문제가 많다는 점에 동의합니다. 나는 잘못된 종류의 "도움"이 나쁜 상황을 훨씬 더 악화시킬 수 있고 또 만들 것이라는 것을 알고 있습니다.

정신 건강에 어려움을 겪고 있거나 도움이 필요하다고 생각되면 988에 전화하거나 문자를 보내 도움을 줄 수 있는 사람과 통화하세요.

이러한 종류의 이야기는 두 가지를 말해줍니다. 위기 상황에서 자격을 갖춘 사람을 대신하여 AI가 사용될 때 AI는 매우 문제가 되고, 더 잘 알아야 하는 실제 사람들도 바보가 될 수 있습니다.

현재 상태의 AI는 이런 방식으로 사용할 준비가 되어 있지 않습니다. 근처에도 안. 워싱턴 대학의 Emily M. Bender 교수는 Vice에 보낸 성명에서 다음과 같이 중요한 점을 지적합니다.

"대형 언어 모델은 훈련 데이터와 입력 프롬프트를 바탕으로 그럴듯하게 들리는 텍스트를 생성하기 위한 프로그램입니다. 그들은 공감도 없고, 자신이 생성하는 언어에 대한 이해도 없고, 자신이 처한 상황에 대한 이해도 없습니다. 하지만 그들이 사용하는 텍스트는 그럴듯한 소리를 내므로 사람들은 그것에 의미를 부여할 가능성이 높습니다. 그런 것을 민감한 상황에 던지는 것은 알려지지 않은 위험을 감수하는 것입니다."

공유하다