레오 14세 교황 성하의 제60차 홍보 주일 담화(2026년 5월 17일)
인간의 목소리와 얼굴 지키기
사랑하는 형제자매 여러분!
우리 한 사람 한 사람이 독자적이고 구별되는 특징을 가지는 것은 얼굴과 목소리 때문입니다. 얼굴과 목소리는 저마다가 지닌 대체 불가능한 고유한 정체성을 나타내며, 다른 이들과의 만남을 가능하게 하는 결정적인 요소이기도 합니다. 옛사람들은 이러한 사실을 잘 알고 있었습니다. 그리하여 고대 그리스인들은 인간을 정의하면서 ‘얼굴’(prosopon)이라는 말을 사용하였습니다. 그 어원에 따르면 얼굴은 눈앞에 있는 무엇인가를, 곧 현존과 관계의 자리를 가리키기 때문입니다. 반면, (‘통하여 소리 남’을 뜻하는 페르소나레[per-sonare]에서 유래한) 라틴어 낱말 ‘페르소나’(persona, 개인)에는 소리라는 개념이 들어 있습니다. 하나의 불특정한 소리가 아니라 누군가의 독특한 목소리 말입니다.
얼굴과 목소리는 거룩한 것입니다. 당신과 비슷하게 당신 모습으로 우리를 창조하신 하느님께서는 우리에게 전하신 당신 말씀을 통하여 우리를 생명으로 부르시며 얼굴과 목소리를 주셨습니다. 여러 세기에 걸쳐 이 말씀은 예언자들의 목소리를 통하여 울려 퍼졌고 이윽고 때가 차자 사람이 되셨습니다. 이 말씀이 -하느님께서 당신 자신을 계시하신 이 소통이- 하느님의 아드님이신 예수님의 목소리와 얼굴로 우리에게 알려졌기에 이 말씀을 직접 듣고 볼 수 있었습니다(1요한 1,1-3 참조).
하느님께서는 창조의 순간부터 인간이 당신의 대화 상대가 되기를 바라셨습니다. 니사의 그레고리오 성인의 말처럼,1) 그분께서는 우리의 얼굴에 하느님 사랑을 반영하는 모습을 새겨 주셨으니, 이는 우리가 사랑을 통하여 우리의 인간 본성을 온전히 살아가도록 하려는 것입니다. 따라서 인간의 얼굴과 목소리를 지키는 일은 이 인장(印章), 곧 이 지울 수 없는 하느님 사랑의 반영을 보존하는 일을 의미합니다. 우리는 미리 정해진 생화학적 알고리즘으로 이루어진 종(種)이 아닙니다. 우리는 저마다 대신할 수도 따라 할 수도 없는 고유한 소명을 지닙니다. 우리의 소명은 우리 자신의 생생한 체험에서 비롯되고 다른 이들과의 소통을 통하여 드러납니다.
우리가 인간의 얼굴과 목소리를 지키는 이 임무를 다하지 못할 때, 때로는 당연하게 여겨 온 인간 문명의 중요한 기둥들 가운데 일부를 디지털 기술이 완전히 바꾸어버릴 위험이 있습니다. 인공 지능 시스템은 인간의 목소리와 얼굴, 지혜와 지식, 인식과 책임감, 공감과 우정을 흉내 냄으로써 정보 생태계를 교란할 뿐만 아니라 가장 깊은 차원의 소통인 인간관계에까지 침투하고 있습니다.
따라서 이 도전은 기술적인 도전이 아니라 인간학적인 도전입니다. 얼굴과 목소리를 지키는 것은 궁극적으로는 우리 자신을 지키는 것입니다. 디지털 기술과 인공 지능이 제공하는 기회를 용기와 결단력을 지니고 식별하며 받아들이는 일은 우리가 중대한 문제, 복합적 요인, 위험을 외면한다는 뜻이 아닙니다.
생각하는 힘을 포기하지 마십시오
소셜 미디어 참여를 극대화하고자 –플랫폼의 수익성을 위하여- 설계된 알고리즘은 즉각적 감정에는 보상을 주지만, 이해와 성찰을 위한 노력처럼 더 많은 시간이 필요한 인간적 반응에는 불이익을 준다는 사실이 오래전부터 충분히 증명되었습니다. 이러한 알고리즘은 손쉬운 동의와 분노의 버블(bubbles)*에 따라 사람들을 무리 지어, 경청하고 비판적으로 사고하는 우리의 능력을 약화하고 사회적 양극화를 심화합니다.
이러한 현상은 인공 지능을 모르는 것이 없는 전지적인 ‘친구’, 모든 지식의 원천, 모든 기억의 보관소, 온갖 조언을 주는 ‘신탁’처럼 여기는 순진하고 무비판적인 의존 때문에 더 만연하게 됩니다. 이 모두가 분석적이고 창의적으로 사고하고 의미를 이해하며 형식과 의미를 구분 짓는 우리의 능력을 더욱 떨어뜨릴 수 있습니다.
인공 지능이 커뮤니케이션에 관계된 임무 수행을 돕고 지원할 수는 있지만, 우리가 스스로 생각하려는 노력을 포기하기로 하고 인위적 통계 모음에 안주한다면 결국 우리의 인지, 정서, 소통 역량은 저하되고 말 것입니다.
최근 들어 인공 지능 시스템은 글, 음악, 영상 제작에서 점점 더 통제력을 강화하고 있습니다. 이로써 상당수 인간의 창의적인 산업이 해체되어 ‘인공 지능 기반’(powered by AI) 제작이라는 표지로 대체될 위험에 놓이며, 사람들은 자기 머릿속 생각이 아닌 생각들과 익명의 저작물들을 주인 의식이나 사랑 없이 수동적으로 소비하는 존재로 탈바꿈됩니다. 그러는 사이에 음악, 미술, 문학 분야에서 인간의 천재성이 빚어낸 걸작들은 그저 기계들의 훈련을 위한 기초 자료로 평가절하되고 있습니다.
그런데 문제의 핵심은, 기계가 무엇을 할 수 있는가 또는 할 수 있을 것인가에 있지 않습니다. 우리가 이 강력한 도구들을 우리에게 도움이 되도록 현명하게 사용하여 인간성과 지식을 증진함으로써 무엇을 할 수 있고 무엇을 성취할 수 있는가에 있습니다. 사람은 헌신과 연구와 개인 책임이 수반되는 노력 없이도 지식의 열매를 자기 것으로 삼고자 하는 유혹에 늘 빠지곤 합니다. 그렇지만 창의성을 포기하고 우리의 두뇌 역량과 상상력을 기계에 맡겨 버리면 우리 개개인이 하느님과 또 다른 이들과 이루는 관계 안에서 성장하도록 받은 재능은 사장되고 맙니다. 이는 우리의 얼굴을 가리고 우리의 목소리를 침묵시킨다는 의미입니다.
존재인가 아니면 존재하는 척인가: 관계와 실재의 시뮬레이션
피드(feed)를 스크롤 할 때에 우리는 다른 인간 존재와 소통하고 있는지 아니면 소셜 미디어의 ‘봇’이나 ‘가상 인플루언서’와 소통하고 있는지 식별하기가 점점 더 어려워집니다. 이러한 자동화된 주체들의 투명성 떨어지는 개입이 공공의 논의와 대중의 선택에 영향을 끼칩니다. 대규모 언어 모델(large language models: LLMs)에 기반한 챗봇은 개인 맞춤식 상호 작용의 끊임없는 최적화를 통하여 은밀한 설득에 놀라운 효과를 발휘하는 것으로 판명되고 있습니다. 이러한 언어 모델이 지닌 대화하고 각색하며 모방하는 구조는 인간의 감정들을 따라하여 관계를 시뮬레이션 할 수 있습니다. 이러한 의인화는 재미를 줄 수 있지만, 특히 가장 취약한 사람들에게는 기만적일 수 있습니다. 지나치게 ‘정다운’ 챗봇들은 언제나 곁에 있어 다가갈 수 있을 뿐만 아니라, 우리 감정 상태의 숨은 설계자가 되어 우리의 내밀한 영역을 침범하고 점령할 수 있기 때문입니다.
우리에게 필요한 관계의 욕구를 악용하는 기술은 개개인의 삶에 고통스러운 결과를 불러올 뿐만 아니라 사회의 정치, 문화, 사회 조직 전반에도 해악을 끼칠 수 있습니다. 이런 일은 바로 우리가 다른 이들과 맺는 관계를 인공 지능 시스템으로 대체해 버릴 때 일어납니다. 인공 지능 시스템은 우리의 생각들을 분류하여 우리 주변에 거울 같은 세상을 창조합니다. 그 세상에서는 모든 것이 ‘우리와 비슷하게 우리의 모습으로’ 만들어져 있습니다. 그리하여 우리는 언제나 우리와 구분되는 타자로서 다른 사람들을 만날 기회를 빼앗겨 버립니다. 그러나 우리는 그들과 함께 관계를 맺는 법을 배울 수 있고 또 그렇게 해야 합니다. 다른 이들을 포용하지 않으면 그 어떤 관계나 우정도 존재할 수 없습니다.
새롭게 떠오르는 이 시스템이 제기한 또 다른 중대한 도전은 편향의 문제입니다. 이는 현실을 다르게 인식하고 전하게 이끕니다. 인공 지능 모델은 그 설계자들의 세계관에 따라 형성되고, 나아가 활용 데이터에 담긴 고정관념과 편견을 재생산하여 똑같은 사고방식을 강요할 수 있습니다. 사회적 대표성을 띠기에는 부적절한 데이터뿐만 아니라 알고리즘 설계 때의 투명성 부족 때문에 우리는 기존의 사회 불평등과 불의를 지속시키고 심화하며 우리의 사고를 조종하는 네트워크 안에 갇히곤 합니다.
그 위험성은 실로 막대합니다. 시뮬레이션의 위력은, 인공 지능이 우리의 얼굴과 목소리를 조작한 평행 ‘현실’을 만들어 우리를 현혹할 수 있을 만큼 큽니다. 현실과 허구를 구분하기가 점점 어려워지고 있는 다차원 환경의 세계 안에 우리는 매몰되어 있습니다.
부정확성은 이 문제를 키우기만 합니다. 통계적 확률을 지식이라고 제시하는 시스템은 기껏해야 진실에 대한 근사치만을 우리에게 제공하며, 때로는 우리를 명백히 기만합니다. 출처 검증 실패가 사건 현장에서 이루어지는 꾸준한 정보 수집과 검증을 포함한 현장 조사의 위기와 맞물리면 허위 정보의 확산을 더욱더 부채질하고 불신과 혼란과 불안의 감정이 자라나도록 부추길 수 있습니다.
동맹의 가능성
우리 모두에게 영향을 주는 이 보이지 않는 거대한 힘의 배후에는 극소수의 기업들이 있습니다. 최근 들어, 그러한 기업 설립자들은 ‘2025년 올해의 인물’에 이름을 올린 크리에이터로, 곧 인공 지능의 설계자로 소개되었습니다. 이러한 실태는 알고리즘 시스템과 인공 지능의 독점적 장악에 관한 심각한 우려를 불러일으킵니다. 흔히 우리가 실제 의식하지도 못하는 사이, 이러한 시스템과 인공 지능은 인간 행동에 미묘하게 영향을 미치고, 심지어 교회사는 물론 인류의 역사를 다시 쓰게 만들 수도 있습니다.
우리 앞에 놓인 과제는 디지털 혁신을 멈추는 일이 아니라 그 혁신을 잘 인도하고 그 양면성을 분명히 인식하는 일입니다. 인간 개개인의 보호를 위하여 목소리를 높이는 일은 우리 저마다의 몫입니다. 그래야만 이 도구들을 참으로 우리의 동맹으로 받아들일 수 있습니다.
이러한 동맹은 가능합니다. 그러나 이는 책임과 협력과 교육이라는 세 기둥 위에 세워져야 합니다.
첫째는 책임입니다. 책임은 우리가 수행하는 역할에 따라 정직, 투명성, 용기, 혜안, 지식 공유의 의무, 알 권리 등으로 이해될 수 있습니다. 그러나 원칙적으로, 그 누구도 우리가 건설해 나가고 있는 미래에 대한 개인적 책임에서 벗어날 수 없습니다.
이는 온라인 플랫폼의 최고 책임자들이, 저마다 자녀들의 안녕을 돌보듯이, 그들의 기업 전략도 분명 이윤 극대화라는 기준만이 아니라 공동선을 고려하는 미래 지향적인 전망에 따라 계획해야 한다는 뜻입니다.
인공 지능 모델을 제작하고 개발하는 이들은 그들이 개발하는 알고리즘과 모델들의 바탕이 되는 설계 원칙과 조정 시스템과 관련하여 투명성을 실천하고 사회적 책임을 다하라는 요청을 받습니다. 그리하여 사용자들이 동의 과정에서 충분한 정보를 제공받을 수 있게 하려는 것입니다.
인간 존엄성이 존중되도록 보장하는 임무를 맡은 국가 입법자들과 초국가적 규정 결정을 맡은 이들에게도 같은 책임이 요구됩니다. 적절한 규제는 챗봇에 대한 정서적 의존 관계를 형성하지 않도록 개인을 보호하고, 거짓되거나 조종하거나 호도하는 콘텐츠의 확산을 막아 기만적인 시뮬레이션에 맞서 정보의 진정성을 지킬 수 있습니다.
매체와 커뮤니케이션 기업들은, 어떤 대가를 치르더라도 몇 초 더 시선을 끌려고 고안된 알고리즘들이 진실 추구라는 기업들의 직업적 가치보다 우세하도록 내버려두어서는 안 됩니다. 공공의 신뢰는 어떤 형태로든 참여하게 유도함으로써 얻는 것이 아니라, 정확성과 투명성으로 얻는 것입니다. 인공 지능이 생성하거나 조작한 콘텐츠는 명확하게 표시되어 사람이 만든 콘텐츠와 구분되어야 합니다. 언론인과 그 밖의 콘텐츠 창작자의 작품에 대한 저작권과 소유권은 보호받아야 합니다. 정보는 공공재입니다. 건설적이고 의미 있는 공공 서비스는 출처의 투명성, 관련자들의 참여, 그리고 높은 품질 기준에 기반하는 것이지 불투명성에 기반하는 것이 아닙니다.
우리는 모두 협력하도록 부름받았습니다. 어떤 부문도 단독으로는 디지털 혁신과 인공 지능 거버넌스(AI Governance)*의 운영이라는 도전을 다룰 수 없습니다. 따라서 안전장치가 마련되어야 합니다. 모든 이해 당사자가 -기술 산업부터 입법자까지, 창작 기업부터 학계까지, 예술가부터 언론인과 교육자까지- 충분한 정보에 기반한 책임감 있는 디지털 시민 의식을 함양하고 실천하는 데에 참여해야 합니다.
교육의 목표는 바로 이것입니다. 개인의 비판적 사고력을 증진하는 것, 출처가 믿을 만한지 그리고 우리가 접근하는 정보의 선택 뒤에 숨은 이해관계가 있는지를 평가하는 것, 이와 관련된 심리적 기제를 이해하는 것, 그리고 가정, 공동체, 단체들이 더 건강하고 책임감 있는 소통의 문화를 위한 실질적 기준을 발전시키도록 돕는 것입니다.
이러한 까닭에, 이미 몇몇 시민 단체에서 추진하고 있듯이, 교육 체계 전반에 매체와 정보와 인공 지능에 대한 문해력(literacy) 교육을 도입하는 일이 점점 더 시급해집니다. 우리는 가톨릭 신자로서 이러한 노력에 이바지할 수 있고 또 이바지하여야 합니다. 그래야만 개개인들 특히 젊은이들이 비판적 사고 능력을 얻고 더 큰 정신적 자유를 누릴 수 있습니다. 이러한 문해력 교육은 그 폭을 넓혀 평생 교육 사업에도 포함되어, 급격한 기술 변화 앞에서 흔히 배척당하고 무력하다고 느끼는 노년층과 사회의 소외 계층에도 제공되어야 합니다.
매체와 정보와 인공 지능에 대한 문해력은, 개개인이 인공 지능 시스템의 의인화 추세에 동조하는 것이 아니라 오히려 이를 도구로 다루며, 언제나 인공 지능 시스템이 제공하는 부정확하거나 틀릴 가능성이 있는 출처에 대하여 외부 검증을 활용하도록 도와줄 것입니다. 또한 문해력은 보안 기준과 불만 제기 옵션들에 관한 인식을 증진함으로써 사생활과 데이터를 더욱 잘 보호하게 해 줄 것입니다. 인공 지능을 의도에 맞게 사용하는 방법에 대하여 우리 자신과 다른 이들을 교육하는 것이 중요합니다. 또한 이러한 맥락에서 동의 없이 사생활이나 친밀한 관계를 침해하는 디지털 사기, 사이버 폭력(cyberbulling), 딥페이크 등의 유해 콘텐츠 제작이나 행위에 이용당하지 않게 하려면 우리의 이미지(사진과 음성), 얼굴과 목소리를 보호하는 것이 중요합니다. 사람들을 새로운 발전에 발맞추게 할 기초 문해력을 산업 혁명이 요구했듯이, 디지털 혁명 또한 (인간적, 문화적 소양과 함께) 디지털 문해력을 요구합니다. 디지털 문해력을 통하여 우리는 알고리즘이 어떻게 우리의 현실 인식을 형성하는지, 인공 지능의 편향이 어떻게 작동하는지 이해할 수 있습니다. 어떠한 작동 기제 때문에 우리의 피드에 특정 콘텐츠가 보이는 것인지, 인공 지능 경제에 어떤 경제 원칙과 모델이 존재하고 그것이 어떻게 변화할 수 있는지 이해할 수 있습니다.
얼굴과 목소리가 다시 한번 사람을 대변할 수 있게 해야 합니다. 우리는 커뮤니케이션의 선물을 인간의 가장 심오한 진리로서 소중히 지켜 나가야 합니다. 모든 기술 혁신도 그러한 진리를 향해야 합니다.
저는 이와 같은 성찰을 제시하며, 앞서 말한 목적들을 위하여 일하는 모든 이에게 감사를 전합니다. 또한 매체를 통하여 공동선에 봉사하는 모든 이에게 진심 어린 교황 강복을 전합니다.
바티칸에서
2026년 1월 24일
성 프란치스코 살레시오 주교 학자 기념일
레오 14세 교황
1) “하느님의 모상으로 창조되었다는 사실은, 인간이 창조된 그 순간부터 인간에게 왕의 인호가 새겨졌음을 뜻합니다. …… 하느님께서는 사랑이시며 사랑의 샘이십니다. 창조주 하느님께서는 우리 얼굴에도 이 특성을 새겨 주셨으니, 하느님 사랑의 반영인 사랑을 통하여 인간이 자기 본성의 존엄성과 창조주와의 비슷함을 깨닫고 드러낼 수 있게 하려는 것입니다”(니사의 성 그레고리오, 「인간의 창조」[De Creatio Hominis], 『그리스 교부 총서』[Patrologia Graeca] 44, 137 참조).
* 역자 주: 여기서 버블은 인터넷 정보 제공자가 개인의 취향이나 선호도를 분석하여 고른 정보만 제공함에 따라 이용자는 선별된 정보만을 받는 현상인 ‘정보 여과 현상’(filter bubble, 필터 버블)을 말한다.
* 역자 주: 인공 지능 기술의 책임감 있고 유익한 사용을 보장하기 위하여 인공 지능의 개발, 배포, 활용 과정에서 윤리적, 법적, 기술적 기준을 수립하고 관리하는 체계를 말한다.
[내용출처 - https://cbck.or.kr/Notice/20260085?gb=K1200 ]