"Human-Centered AI(HCAI, 인간 중심 AI)"라는 말의 정의를 두고 우리는 한 번쯤 불편한 대화를 해야 합니다. 최근 몇 년 사이 이 용어는 연구 공동체 안에서 별다른 비판적 성찰 없이 널리 받아들여져 왔습니다. 표면적으로 HCAI는 순수한 선의처럼 보입니다. 인간이 의사결정 과정 안에("in the loop") 머물면서 끝까지 주도권을 쥐는("in charge") 시스템을 설계한다는 뜻이기 때문입니다. 사용자가 설정을 조정하거나 알고리즘의 판단을 무효화(override)할 수 있는 한 그 시스템은 인간 중심적이라는 말로, 우리는 스스로를 안심시켜 왔습니다.
그러나 이 정의 안에는 위험한 전제가 숨어 있습니다. 우리 모두가 결국 AI에 의해 매개되는 사회 속에서 살아가야 하며, 가치 있는 인간 주체로 인정받으려면 반드시 user(사용자)여야 한다는 전제입니다. 결국 이 정의는 이러한 시스템을 사용할 수 없거나 사용하지 않으려는 사람을 모두 "도움이 필요한 문제"로 분류해 버립니다.
우리는 이 기술들이 이미 오랜 불평등으로 균열이 나 있는 사회적 지형 위에 놓인다는 사실을 직시해야 합니다. 이 도구들은 백지 위에 떨어지는 것이 아닙니다. 접근성도, 자원도, 능력도 천차만별인 공동체 위에 떨어집니다. AI를 다룰 수 있도록 개인을 어떻게 "준비시킬 것인가"에만 매달리는 동안, 우리는 사회 구조 차원의 실패를 손쉽게 개인의 결함으로 둔갑시킵니다. 뿌리 깊은 사회 문제를 "고쳐야 할" 개인의 특성으로 포장하는 것입니다. 그러는 동안 정작 가장 근본적인 질문은 거의 던지지 않습니다. 인간은 이 관계의 경계를 스스로 정할 권리, 즉 언제, 어떻게, 어느 정도까지 AI와 관계를 맺을지 스스로 선택할 권리(agency)를 지녀야 하지 않을까요?
우리는 기계 너머를 보지 못하고 있습니다. 사회가 빠르게 변하니 살아남으려면 "AI literacy(AI를 이해하고 활용할 줄 아는 능력)"를 갖춰야 한다는 말을 듣습니다. 그런데 왜 사회가 이토록 빠르게 변하고 있는 걸까요? 그것은 자연의 필연이 아닙니다. 지정학적 권력 게임이 이 속도를 만들어내고 있습니다. 그 단적인 장면이 2025년 2월 Paris AI Action Summit입니다. 이 자리에서 AI에 대한 국제사회의 입장은, 모두가 안전하게 AI를 사용하도록 하자는 "safety(안전)" 담론에서, AI를 국가 간 경쟁의 핵심 자산으로 다루는 "national security(국가 안보)" 담론으로 결정적으로 옮겨갔습니다. 그곳에서 우리는 협력보다 경쟁을 우선시하겠다는 의도적 선택을 목격했습니다. 수십 개국이 inclusive AI(포용적 AI) 선언에 서명하는 동안 핵심 global player(주요 강대국)들은 서명을 거부했고, 이는 "모두를 위한 안전한 AI"보다 "AI 군비 경쟁"이 앞서는 우려스러운 흐름을 드러냈습니다. 이런 지형 위에서 우리는 사회가 어디로 갈지를 결정하는 권한을 점점 더 기술 기업 경영진의 손에 맡기고 있고, 정부는 경제 성장과 국가 안보를 떠받치기 위해 공적 자금을 산업의 목표에 맞춰 배분하고 있습니다.
이러한 흐름은 technological determinism(기술 결정론) — 기술이 사회 변화를 결정하며 우리는 그저 적응할 수밖에 없다는 시각 — 을 더욱 굳건히 만듭니다. 그러면서 "문제"의 프레임도 슬쩍 뒤바뀝니다. 적응하지 못하거나 적응하지 않으려는 시민이 어느 순간 결함 있는 존재로 간주됩니다. 그러나 이 속도는 사실 기술 산업의 시장 논리가 만들어낸 것입니다. 그들이 노리는 것은 단순한 운영 효율이 아니라 공격적인 시장 확장입니다. 정부가 기꺼이 동반자가 되어주는 가운데, Big Tech(대형 기술 기업들)는 공공·민간 서비스의 자동화를 밀어붙여 자사 AI 제품을 팔고, 그렇게 사회 전체를 자신들의 ecosystem(생태계, 즉 그들의 제품 없이는 일상이 굴러가지 않는 구조) 안에 가둡니다. 이들이 알고리즘으로 인간 노동자를 무분별하게 대체할 때, 그것은 인간의 안녕을 위한 "innovation(혁신)"이 아닙니다. 자신들이 부담해야 할 운영 비용을 외부로 떠넘기는 일, 즉 그 일과 책임을 개인이 떠안도록 만드는 일입니다. 나이, 교육, 시간 부족, 또는 그저 사용하지 않겠다는 선택 때문에 AI literacy를 손쉽게 갖출 수 없는 사람들이, 이제 그 격차를 따라잡는 데 가장 큰 비용을 치르도록 강요받고 있습니다.
이러한 역학은 이른바 "AI Divide(AI 격차)"에서 가장 또렷이 드러납니다. 노인을 대하는 우리의 방식을 보겠습니다. 우리는 이 인구 집단을 다룰 때 온정주의적(paternalistic) 태도 (상대를 미숙한 존재로 간주하고 그들의 의사와 무관하게 "너를 위해서"라며 결정을 대신 내리는 태도) 를 취하며, 그들이 디지털 세계에 동화되도록(digital assimilation) 만드는 일을 마치 신성한 사명처럼 떠받듭니다. 이들을 아날로그적 삶에서 "구출하는" 것이 자비로운 의무인 양 행동하며, AI 없는 삶은 불완전하다는 오만한 전제 위에서 움직입니다.
키오스크 터치스크린 앞에서 쩔쩔매거나 뱅킹 앱을 다루지 못하는 노인을 보면, 우리는 이를 "literacy의 부족"으로 규정합니다. 의료 포털 접근부터 정부 혜택 신청에 이르기까지 필수 서비스가 오직 디지털 채널로만 옮겨갈 때, 우리는 단순히 그들을 불편하게 하는 것이 아니라 시민으로서 누려야 할 권리를 박탈하고 있는 것입니다. 그들에게 "따라잡아야 한다"고 말하고, "격차를 메우는" 프로그램을 설계해, 적대적인 디지털 인터페이스 사용법을 가르치거나 정서적 돌봄을 위해 large language model(대규모 언어 모델, 즉 ChatGPT 같은 AI 챗봇)과 대화하라고 권합니다.
그런데 이 격차를 메우는 일은 정말로 그들을 위한 것일까요? 비용을 줄이려고 지점을 닫고 창구 직원을 해고한 은행을 위한 것은 아닐까요? 인간 사회복지사에 대한 투자를 거부하면서 공감마저 자동화하려는 국가를 위한 일은 아닐까요?
노인들에게 이러한 기술을 강요할 때 우리는 인간의 존엄보다 system(시스템)의 효율을 앞세우고 있습니다. 50년 동안 대면으로 은행 일을 봐온 사람이 연금 하나 받으려고 이중 인증과 씨름해야 할 이유는 없습니다. 디지털 연결보다 공동체와의 관계에 의지해 살아온 농촌 거주자가 시민으로서의 일상에 참여하려고 ("유익한 개입"이라는 이름으로 포장된) AI 교육에 끌려가야 할 이유도 없습니다. 기업과 정부가 "효율성"이라는 깃발 아래 절감한 비용은 사라진 게 아닙니다. 그것은 이 사람들이 떠안아야 하는 인지적 부담이라는 형태의 세금(cognitive tax)으로 전가되었을 뿐입니다.
여기서 우리는 Sally Wyatt의 작업을 다시 떠올려야 합니다. 2005년의 기념비적 논문 Non-Users Also Matter: The Construction of Users and Non-Users of the Internet(비사용자 또한 중요하다: 인터넷의 사용자와 비사용자가 어떻게 규정되는가)에서 Wyatt는 비사용(non-use)을 결핍으로 보는 시각을 멈춰야 한다고 주장했습니다. 사용하지 않는다는 것이 늘 연결의 실패를 뜻하지는 않습니다. 그것은 선택일 수도, 저항일 수도, 그저 다른 방식의 삶일 수도 있습니다. 비사용자를 "아직 배우지 못한 미래의 사용자"로만 바라볼 때, 우리는 그들이 스스로 결정할 권리(agency)를 박탈하는 셈입니다. 아날로그 방식을 향한 그들의 선호를 고쳐야 할 결함으로 취급하는 셈입니다.
Human-Centered AI를 그저 "AI를 더 쉽게 쓰게 만드는 일" 또는 "AI가 인간의 통제 아래 있는 듯 보이게 만드는 일"로만 정의한다면, 우리는 이 강요에 공모하고 있는 것입니다. 우리는 통제라는 환상을 꾸며내고 있습니다. 사용자에게 폰트 크기를 조절할 권한은 주면서, 정작 자신이 살아가야 할 시스템 자체가 존재해야 하는지 아닌지에 대한 통제권은 주지 않습니다.
사회 정의의 관점에서 보면, 이것은 user experience(사용자 경험)의 문제가 아니라 자기결정(self-determination, 자신의 삶에 관한 결정을 스스로 내릴 권리)의 문제입니다. 진정으로 포용적인 Human-Centered AI는 한층 급진적인 의미를 품어야 합니다. 거기에는 거부할 권리(the right to refuse)가 포함되어야 합니다.
이는 어려운 제안입니다. 도구로서의 AI를 개선하는 데에서 더 나아가, 사회 시스템 자체를 다시 생각하고 개선하는 데로 우리의 시야를 넓혀야 하기 때문입니다. 그래서 이 제안은 우리에게 묻습니다. 개인이 AI 사용을 거부(opt-out)하고도 자신의 안녕을 지킬 수 있는 사회를 우리는 어떻게 만들 수 있을까요? 이를 위해서는 정당한 대안이 제공되어야 합니다. 진정한 포용이란 "human lane(인간 경로)" — 물리적 창구, 종이 양식, 실재하는 사람의 목소리 — 를, 디지털을 따라가지 못하거나 따라가기를 원치 않는 이들을 위한 일시적 자선이 아니라, 필수적인 시민 인프라로 제공한다는 뜻입니다. 서로 다른 신체를 위해 계단과 경사로를 함께 두듯이, 서로 다른 정신을 위해 디지털 경로와 아날로그 경로를 함께 유지해야 합니다. 인간 옵션을 제거하는 것은 일종의 hostile architecture(적대적 설계, 즉 특정 사람들이 그 공간을 사용하지 못하도록 일부러 불편하게 설계하는 방식)입니다. 끊임없이 데이터를 만들어내는 이상적인 user의 틀에 맞지 않는 사람들을 걸러내도록 짜인 구조인 것입니다.
비판자들은 이런 옵션을 유지하는 비용이 너무 크다고 말할 것입니다. 그러나 누구에게 비쌀까요? 우리 사회를 더 이상 자사 제품의 독점 시장으로 만들 수 없게 된 Big Tech에게 비쌀 수 있습니다. 알고리즘으로 공무원을 대체해 공공 서비스 예산을 줄이려는 정부에게 부담스러울 수 있습니다. 그러나 그것은 인간의 존엄을 위해 치러야 할 값입니다.
user retention(사용자 유지율, 즉 얼마나 많은 사용자를 시스템 안에 붙잡아두느냐)이 아니라 인간의 안녕을 진정으로 생각한다면, 우리는 AI와 관계 맺지 않을 권리를 인정해야 합니다. 불이익 없이 AI 사용을 거부할 수 있는 시스템을 만들어내기 전까지, 우리의 "Human-Centered AI"는 잘 설계된 덫에 지나지 않습니다.