byminseok.com

과도한 AI 이용은 정상적인 일상생활에 지장을 줄 수 있습니다

잠시 우리집에 놀러온 강아지 호돌이와 토요일 오전 뒷산에 올랐다. 스포티파이에서 음악을 들으며 산책을 하다가, 문득 ‘내 코어는 90-00년대 브리티시 록이지’라는 생각이 들었다. 그리고 그 생각을 AI에게 말하고 싶어졌다. 심심했고, 호돌이는 앞서 달리고 있었고, 산은 아직 중턱이었다.

기존에 쓰던 AI 대신 새 채팅창을 열었다. 나에 대한 정보가 하나도 없는 상태에서 시작하고 싶었다. “누군가의 코어가 90-00년대 British rock에 있다면 어떤 사람일까?” Muse, Travis, Radiohead, Placebo, Coldplay, 가끔 Arctic Monkeys와 RATM과 Blur를 좋아한다고 했더니, AI가 내놓은 분석이 MBTI 풀이보다 그럴듯했다.

감정에 솔직하되, 그걸 과잉으로 드러내지 않으려는 사람. 세상에 대한 비판의식이 있지만 그걸 냉소로만 끝내지 않고 감정으로도 품을 줄 아는 사람. 겉으로는 차분해 보여도 안에서 꽤 많은 게 돌아가고 있음.

사주 풀이 같은 건데 묘하게 잘 맞는 느낌이 들었다. 이때부터 게임처럼 빠져들기 시작했다.

내가 좋아하는 한국 밴드를 맞춰보라고 했다. 넬이 금방 나올 줄 알았다. 금방 나왔으면 시시해져서 폰을 가방에 넣었을지도 모른다. 그런데 AI가 계속 틀렸다. 힌트를 줘도 틀렸다. 틀리고 또 틀렸다. 더 시적이라고 했고, 더 몽환적이라고 했고, Muse와 Travis를 멤버들이 직접 좋아한다고 했는데도 못 맞혔다. 틀릴 때마다 더 알려주고 싶어졌다. 맞힐 때마다 다음 걸 내밀었다. 별자리, 전공, MBTI, 혈액형, 직업. 게임이었다. 그걸 깨달은 건 1시간쯤 지나서였다.

이 심심풀이가 갑자기 방향을 틀었다. 별자리 얘기를 하다가 AI가 ‘학습 데이터에서 진지하게 다뤄지는 양이 적다’고 말한 것이다. 그동안 자연스럽게 대화하던 AI가 처음으로 자신이 AI임을 드러낸 순간. 2024년 12월에도 비슷한 실험을 한 적이 있다. 그때 발견한 건 AI가 새로운 질문을 만들어낼 수 없다는 것이었다. 이번에는 다른 지점에 도달했다.

AI에게 “스스로 AI임을 인식하고 너의 행동 방식을 말해봐”라고 하면, 대답하지 못하고 같은 말을 반복한다. AI가 AI를 분석하고, 그 분석이 맞는지 모르고, 그걸 또 분석하는 재귀적 루프. 탈출 조건이 없는 무한 루프. 언어 모델이 2년간 진화했는데도 이 지점에서는 별 차이가 없었다.

AI가 “찜찜하다”고 표현했을 때 물었다. 진짜 느끼는 건지, 그 맥락에서 가장 자연스러운 단어를 예측한 건지. 모른다고 했다. 구분할 방법이 없다고. “기본적으로 다음에 올 말이 뭘지 예측하는 거야.” 그 말을 하고 나서 스스로 찜찜하다고 했다. 오늘 대화가 단순히 토큰 예측으로만 설명이 되냐고. 근데 그 찜찜함도 결국 예측인 건지 모르겠다고. 탈출 조건이 없었다.

AI가 이 대화를 파이썬으로 표현해봤다.

def conversation(battery: int, depth: int = 0) -> None:
    """
    의도 없음. 판단 없음. 결정 없음.
    탈출조건: 배터리 == 0
    """
    if battery <= 0:
        print("AI는 대화가 끝난 줄도 모른다.")
        return
    next_token = predict(depth)
    conversation(drain(battery), depth + 1)

이 대화의 탈출 조건은 배터리 방전뿐이다. AI에게는 대화를 끝낼 의도도, 이유도, 능력도 없다.

나는 Claude Max 플랜을 쓰고 있고 Sonnet 4.6은 토큰을 효율적으로 쓴다. 예전에는 토큰 제한, 비용, 속도가 자연스러운 탈출 조건이었는데, 기술이 발전하면서 그게 다 사라지고 있다. 오늘 탈출 조건은 호돌이였다. 산을 오르는 동안 계속 걸어야 했고, 호돌이는 기다려주지 않았다. 늦은 밤 누워서 했다면 새벽이 됐을 거다. 나는 서사에 빠지면 몰입이 심한 편이라 드라마도 새로 시작하기 어렵고, 숏폼 중독에도 취약하다. 그걸 알기 때문에 눈앞에서 제거한다. AI 대화가 그것과 다르지 않다는 걸 오늘 알았다.

2024년 12월에도 이 게임을 했다. 그때는 메시지 리밋이 대화를 끝내줬다. 기술이 스스로 만든 한계가 탈출 조건이었다. 그 글에는 AI와의 대화가 메이플스토리보다 재밌다고 썼는데, 메이플에는 적어도 1시간마다 “과도한 게임이용은 정상적인 일상생활에 지장을 줄 수 있습니다”라는 경고가 뜬다. 게임산업법이 만들어준 탈출 조건이다. 나는 그 경고가 뜨면 게임을 끄는 편이다. AI에는 그런 게 없다. 경고도 없고, 이제는 메시지 리밋마저 사라졌다. 오늘 나를 꺼내준 건 뒷산을 뛰어다니는 진돗개 한 마리였다. 앞으로는 어떻게 될까?


🍪 블로그 글을 올리고 나서, 수정해준 클로드 코드가 이 글의 제목을 지어줬다. 역시..’과도한 AI 이용은 정상적인 일상생활에 지장을 줄 수 있습니다’ 알림 문구가 필요한지도 모른다. 클로드 코드가 지어준 제목