인공 지능 답변 분포

조회 1794 추천 -1 댓글 14
Extra Form

Gemini, Claude, GPT

세 곳에 같은 문장으로 질문

어떤 물질의 특정 영역 특정 부피를 특정 온도에서 특정 온도까지 냉각에 소요되는 시간

(열 전도와 관련된 계산)

세 곳의 답이 (normalized) 1400, 50, 0.1 으로 각각 다르게 나옴.

 

특이한 건 Claude한테 Gemini의 답과 해석을 보여주니, 미안하다 그게 맞다 앞으로 더 잘하겠다고 답함.

 

여러 의미로 많이 인간다워지는 것 같음 

 

근데 알고 싶은게 정교하고 critical 한 내용이라면 아직 ai에 의존하기 어려운거 같음

  • ?
    누나바보 2024.06.19 13:38
    그래서 실제 그 물질이 냉각되는 데 소요되는 시간이 50에 가까운건가요?
  • ?
    anonymity 글쓴이 2024.06.19 13:55
    @누나바보
    몰라서 물어 본거라...
    정확한 답은 모르지만, 관찰한 현상과 가까운 값은 50 (by Claude)
    그런데 Claude에게 Gemini의 계산 과정을 보여 주자
    자기 계산 방식 보다 Gemini의 접근 방법이 더 타당하다며 인정
    하지만 Gemini의 답은 way too high
  • ?
    누나바보 2024.06.19 16:06
    @anonymity
    혹시 GPT 버전은 몇일까요?
  • ?
    anonymity 글쓴이 2024.06.19 22:44
    @누나바보
    OpenAI 홈페이지에서 현재 사용가능한 GPT plus라는거네요. GPT4 전 버전 같아요

    개인적인 경험으로는, 위 세가지 중에 GPT가 제일 떨어지는거 같아요
  • ?
    VestiGate 2024.06.19 13:40
    대화형 AI는 자동 문장 생성기임
    전후 맥락과 문장 구조만 깔끔하다면 목표 달성인 모델이라
    산술적 질문에 답하는 용도가 아님.

    미안하다 그게 맞다 앞으로 더 잘하겠다고 답하는것도
    그게 깔끔한 구조이기 때문일 뿐이고
    다음에 물어보면 또틀림...
  • ?
    anonymity 글쓴이 2024.06.19 14:15
    @VestiGate
    산술적 질문이란게
    논리적인 문장으로 답을 하라 와
    언어모델 입장에서 처리하는 process의 속성은 다르지 않을꺼임.

    다만 산술적인 문제는 맞았는지 틀렸는지 구분이 되는 편이고
    문장은 그게 애매해서 넘어가는 편이고 의 차이라 할까

    전에 배웠던 공식, 계산에 들어가는 factor 들 지금은 기억 안 나는 것들을 사용해야 하는 경우에
    얘네들에게 물어 보면, 일단 필요한 공식과 값들을 즉시 찾아 주고
    뿐만 아니라 계산 과정까지 꽤 그럴듯하게 풀어서 답을 해 줌.
    자칫 덜컥 믿어 버릴 만큼 (아래에 오늘 Gemini가 해준 답 첨부)

    저런거 배운지 꽤 오랜 시간이 지난 상태인 나는
    저 계산의 어느 부분이 틀렸는지 판단이 어렵지만
    논리의 흐름에서는 아무 결점을 찾지 못 했...

    결과적으로 기대와 거리가 먼 답이 나와 어딘가 잘못된 것이라는 심증을 가지고 있을뿐
    나는 오늘 답에 대한 수치화된 기대 범위를 가지고 있었으니 이상하다 의심이라도 하지

    쟤가 인문학적인 내용으로 또 예의 논리적으로 무결점하게 여러 문장을 만들어 주었을 때
    이건 더 조심할 필요가 있겠다 싶음.
    얘네들이 잘 하는 영상이나 긴 text 요약 해 주는 것도, 편하기는 한데 어딘가 만족스럽지 못하고
    현재 AI는 애벌이나 초벌 작업 정도가 적당할 듯

    ===== 아래 ===========

    대류 말고 열전도만 고려한 경우도 차이가 있는데...
    실리콘 웨이퍼 위 지름 3mm 원의 면적을 xxx로 순간적으로 가열하여 온도를 섭씨 300도까지 올린 경우, 히팅된 영역의 온도가 300도에서 100도까지 냉각되는데 소요되는 시간을 계산합니다.
    1. 문제 정의
    웨이퍼 직경: 300mm
    히팅된 원의 지름: 3mm
    히팅된 원의 면적: π * (3mm/2)^2 = 7.065mm^2
    히팅된 면적의 두께: 100μm = 0.1mm
    초기 온도: 300°C
    목표 온도: 100°C
    냉각 시간: 알려야 함
    2. 해석
    히팅된 영역의 냉각 시간을 계산하기 위해서는 열전도 방정식을 사용해야 합니다. 열전도 방정식은 다음과 같습니다.
    ∂T/∂t = α∇^2T
    여기서,
    T: 온도 (°C)
    t: 시간 (s)
    α: 열 확산도 (m^2/s)
    ∇^2: 라플라스 연산자
    이 방정식을 해결하기 위해서는 초기 조건과 경계 조건을 설정해야 합니다.
    초기 조건: t = 0에서 T = 300°C
    경계 조건: 웨이퍼 표면에서 T = 100°C
    3. 계산
    히팅된 영역은 작고 웨이퍼는 얇기 때문에 1차원 열전도 모델을 사용할 수 있습니다. 1차원 열전도 방정식은 다음과 같습니다.
    ∂T/∂t = α∂^2T/∂x^2
    여기서,
    x: 웨이퍼 두께 방향의 거리 (m)
    초기 조건과 경계 조건을 적용하면 다음과 같은 해를 얻을 수 있습니다.
    T(x, t) = 100°C + (200°C * erf(x/√(4αt)))
    여기서,
    erf: 오차 함수
    히팅된 영역의 중심에서 x = 0입니다. 따라서 x = 0에서 T = 100°C가 되도록 위 방정식을 정리하면 다음과 같습니다.
    t = (1/4α) * (erf^-1((T - 100°C) / 200°C))^2
    여기서,
    α: 실리콘의 열 확산도 (약 8.5 x 10^-5 m^2/s)
    따라서 히팅된 영역의 온도가 300도에서 100도까지 냉각되는데 소요되는 시간은 약 1.44초입니다.
    4. 결론
    300mm 실리콘 웨이퍼 위 지름 3mm 원의 면적을 CO2 레이저로 순간적으로 가열하여 온도를 섭씨 300도까지 올린 경우, 히팅된 영역의 온도가 300도에서 100도까지 냉각되는데 소요되는 시간은 약 1.44초입니다.
  • ?
    VestiGate 2024.06.19 14:31
    @anonymity
    ㅇㅇ 말씀하신 부분이 다 맞음.

    전후 맥락과 문장 구조만 깔끔하게... 이게 목표인데...
    이 목표에 대한 결과의 완성도가 너무 높아버리니

    산술적인 질문에 대한 대답이나
    프로그래밍 코드나
    복부대동맥 수술중 응급상황에 대한 대처 절차나
    업무상 과실치사 형법의 해석 등...

    전문적인 답변이 정확하게 된것 같은 착각을 불러일으킬 정도로 깔끔하게 문장이 뽑아짐.
    가끔 편리하기는 한데, 2차 검수는 꼭 거쳐야함.
    안그럼 업무에 사용했다가 개망신 당하는 상황이 올수도...
  • ?
    hm 2024.06.19 16:52
    @anonymity
    이 대규모 언어 인공지능이란 거는
    논리적인 문장으로 답을 하려고 하는 게 아님
    gpt 류의 대규모 언어 인공지능의 구조는 그냥 단순하게
    대규모의 언어 자료를 데이터화 시켜서 저장한 다음에
    그 데이터 구조의 공통점을 ai 공식에 따라서 스스로 찾게 만드는 거임
    즉, 논리적이거나 산술적인 답변을 찾는게 아님
    그냥 엄청나게 많은 데이터에서 공통점을 찾아서 그 공통점에 맞는 데이터를 꺼내는 것 뿐임

    예를 들어, 한국인들이, [ 뭐 먹었어요? ] 라는 문장의 답변으로 [ 고기 먹었어요 ], [ 생선 먹었어요 ]
    등등으로 답변한 내용을 많이 저장하면 어떤 공통점이 찾아짐
    일단, [ 먹었어요 ] 같은 단어가 많이 쓰이고, 거이에 [ 고기 ], [ 생선 ] 등의 단어가 조합된다는 사실이
    나타나니까
    ai에게 [ 뭐 먹었어요? ] 라고 물어보면,
    [ 먹었어요 ], [ 고기 ], [ 생선 ] 등등의 많이 사용되는 단어들을 찾아서
    자주 사용되는 방식으로 조합해서 [ 생선 먹었어요 ] 라는 답변을 도출해 내는 거임

    여기에 어떤 논리나 산술적인 사고 과정이 들어가는 게 아님 오로지 대규모 자료에서
    자료 사이에 어떤 규칙성이 있는지를 ai 스스로 찾게 만든 것 뿐임
    위에 예시는 간단하게 이해하라고 만든 거고
    실제로, ai는 단어 단위로 학습하는 것도 아님
    그러니까, 우선, [ 뭐 먹었어요? ] 라는 문장을 픽셀 단위 같은 걸로 쪼개서 데이터화 시키는 거임
    ㅁ ㅜ ㅓ ㅁ ㅓ ㄱ 어 ㅆ 어 ㅇ ㅛ ? 이런 식으로 쪼개는 것 처럼, 문장이나 단어가 아니라
    굉장히 잘게 쪼개서 저 예시보다도 더 잘게 쪼개서 데이터화 시키고
    그런 데이터를 어마어마한 수조개의 양을 저장해서
    그 안에서 데이터의 공통점을 ai가 스스로 찾아내게 하고
    사람이 질문하면, 그 질문을 역시 데이터화 시켜서 자신이 가진 데이터 중에서 자신이 찾은 규칙성으로
    연관성있는 데이터를 불러 오는 것 뿐임

    그래서, 나오는 말이 ai가 왜 저런 대답을 하는 지 모른다는 거임,
    그 데이터 규칙성을 ai가 스스로 찾은 거니까
    그리고, 언어 학자들이 충격 받은 이유가 사람의 언어는 논리나 무언가 특별한 인간의 능력이라고 생각했는데
    오로지 데이터 쪼가리를 대량으로 학습시켜서 찾은 규칙성으로 나온 대답이
    마치 인간의 대답과 흡사해서 언어 능력이란 게 단순히 경험된 자료에서 나오는 걸 수도 있다는 게
    드러나서 그런거임

    클로드가 자기가 틀렸고 제미니가 맞다고 한 것도 그냥 자기가 가지고 있는 데이터 규칙성으로
    적합한 거 같은 데이터를 불러왔을 뿐임 진짜로 맞는지 틀린지 검증하는 게 아님
    그래서 gpt가 한참 유명할 때도 단순한 수학 계산을 틀리기도 했음
    그건 오히려 기존의 컴퓨터 프로그래밍으로는 쉽게 답을 찾을 수 있는 건데
  • ?
    anonymity 글쓴이 2024.06.19 23:16
    @hm
    뭐라고 답을 해야할지...난감
    AI가 나름 논리적으로 답을 하고 있는데
    논리적으로 답을 하는게 아니라하니...

    LLM이 데이터 학습 후 어떤 과정을 통해 답을 만들어 내는지 인간이 이해 못 하고 있다고
    논리가 없다고 얘기 하는건 타당하지 않다고 봄

    사람도
    단백질 덩어리 우리 두뇌는 어떤
    어릴적부터 보고 들은 걸 통해 어느 순간 intelligent 하게 되고 논리적인 언어와 사고를 하는데
    이 또한 어떤 원리인지 모르긴 마찬가지

    오늘은 아무도 모르는 AI 속에 대한게 아니라
    그냥 결과치 현상에 대한 특이점에 대해 얘기중이었던 것
  • ?
    hm 2024.06.20 02:35
    @anonymity
    아니 ㅋㅋㅋ 이건 그냥 사실임 이미 ai 이슈 나오고 전문가들이 한참 설명한 사실임
    내 개인 의견이 아님

    그러니까, 이해를 돕기위해서 정리를 좀 해주면

    1. AI가 나름 논리적으로 답을 하는 게 아님
    AI 즉, LLM이 답을 도출해내는 방식은 위해서 말했듯이
    그냥 무수히 많은 문장을 데이터화 시켜서 그 데이터끼리의 규칙성을 찾아내고
    그 규칙성을 기반으로 답변을 하는 거임,
    언어적으로 봤을 때, 문장 자체를 이해하고 답변하는 게 아님
    문장을 이해 못했는데 그걸 논리적인 사고 과정을 통한 답변이라고 할 수 없지

    님의 답변을 통해서 착각하고 있는 부분이 뭔지 생각해 봤을 때
    아마 AI, 즉, LLM이 나름의 규칙성을 찾고 그 규칙성을 기반으로 문장을 구성하는게
    논리적인 과정이라고, 인간과 다른 나름의 논리성을 가지고 있다고 착각하고 있는 거 같은데
    똑같이 논리라는 어휘를 사용했지만, 둘은 완전히 다른 걸 지칭하는 거임

    LLM도 프로그램이고 당연히 논리를 기반으로 만들어졌음
    그 처리 과정은 당연히 논리적임, 하지만 여기서 말하는 논리는
    LLM이 문장을 구성하는 처리 과정의 논리성을 얘기하는 거고
    보통 인간이 산술적이거나 논리적인 답변을 만들때의 논리는
    그 문장을 이해하고 표현하는 사고 과정의 논리성을 얘기하는 거임

    님은 그 두가지를 혼동하고 있음
    그래서, 님의 워딩을 보면

    [ 산술적 질문이란게 논리적인 문장으로 답을 하라 와
    언어모델 입장에서 처리하는 process의 속성은 다르지 않을꺼임.
    다만 산술적인 문제는 맞았는지 틀렸는지 구분이 되는 편이고
    문장은 그게 애매해서 넘어가는 편이고 의 차이라 할까 ]

    이런 표현을 썼는데, 언어모델이 처리하는 프로세스라는 건
    위에 설명했듯이 대규모 언어 데이터의 규칙성을 찾아서 관련 데이터들을 불러 오는 거임
    그래서, 산술적인 문제인지 일반 문장인지 구분하지 않음, 프로세스가 그런 형태임,
    내용을 알고 구분하는 게 아님
    컴퓨터는 모든 데이터를 이진법으로 처리하는 것처럼
    LLM은 모든 언어를 다 데이터화 해서 사용하는 거임
    그래서, 산술적인 질문이라고 구분하지도 이해하지도 못하는 거임
    그 이유로 인해서 일반 과거의 프로그래밍으로는 쉽게 도출하는 수학 계산 문제를
    LLM은 오히려 틀림
    그래서, LLM은 진짜 같은 거짓말을 함
    문장을 전혀 이해하지 않고 말하기 때문임
    위에서도 말했지만, 그래서 언어학자들이 엄청 놀랐음
    이런 단순 데이터 처리로 구성한 문장이 논리적인 문장이 되는 결과를 보여줬으니까

    즉, 언어에 대한 논리적인 사고 과정없이 데이터 처리에 대한 논리성만으로
    논리적인 문장이 만들어졌으니까
    여기서 논리가 3번 쓰였지만, 다 다른 걸 지칭하는 거임
    님이 같은 어휘를 쓰면서 혼동하는 부분이 있는 것 같아서 굳이 짚고 감

    인간이 이해 못하는 건 LLM이 찾은 규칙성이지
    LLM의 구조를 인간이 이해 못하는 게 아님, 오히려 그 구조를 아니까 논리적인 답변을 하는 게 아니라
    단순 데이터 불러오기라고 하는 거임
    LLM에 언어를 학습시키는 과정 자체가 언어를 분해해서 데이터화해서 저장하는 걸 얘기하는 거임
    이미 LLM은 언어를 언어처럼 쓰는 게 아님, 데이터 처리를 하는 거임

    2. 사람의 두뇌도 작동하는 원리를 잘 모른다고 했는데
    여기서도 님이 혼동하고 있는 게 느껴짐
    논리적인 문장의 정의를 정확하게 하지 않아서 혼동하시는 거임

    인간의 정확한 구동 원리를 모두 파악하고 있는 건 아니지만
    흔히 논리적인 문장 구성은 우리가 이해하고 있음,
    각 문장의 뜻도 알고 있고
    그리고, LLM이 데이터에서 어떤 규칙성을 찾아서 답변을 구성하는지 인간이 모르지만
    문장의 뜻을 모르고 그냥 데이터 처리를 한다는 사실은 이미 알고 있음
    그래서, 인간은 문장을 이해하고 답변하는 거고,
    LLM은 문장을 이해하지 못하고 답변하는 것으로 인간과 다르다는 거임
    그래서, 논리적인 문장을 구성하는 LLM의 방식을 인간과 다른 나름의 논리라고 하는 건
    완전히 헷갈리고 있는 거임, 무엇에 관한 논리인지를 구분하지 않고 섞어 쓴다는 거임

    3. 나도 AI속에 대해서 얘기하고 싶지 않고 결과치에 대해서 얘기한다는 사실도 알고
    그 결과치에 대한 견해를 나누고 싶었는데
    님이 `이미 잘 알려진 AI속`을, `아무도 모르는 AI속` 이라고 잘못 알고 있는 부분이 있어서
    짚고 가는 것 뿐임
    AI를 100프로 아는 건 아니지만, 완전히 모르는 것도 아님
    위에도 몇 번이나 말했지만, 그걸 그냥 제대로 정의하지 않고 너무 자의적으로 해석하심
    우리가 모르는 건, LLM이 찾아낸 데이터 규칙성을 모르는 것 뿐이고
    LLM의 기본 구조는 잘 알려져 있음
    이 잘 알려진 구조도 AI 속의 일부고 그걸 이해해야
    그 결과값에 대한 해석과 특이성에 대해서도 올바른 결론을 도출할 수 있음
  • ?
    anonymity 글쓴이 2024.06.20 11:04
    @hm
    갈수록 밑천이 드러나는 느낌...

    님이 길게 적은 내용은 이미 다 들어 본 내용
    굳이 다시 옮겨올 필요 없음.

    LLM이란게 수조개 매개 변수 막 조합하고 최적화 해서 답을 내는 아주 무식한 방법을 쓴다. 얘는 똑똑하거나 논리적이지 않다. 이게 무슨 의미가 있냐는거가 내 얘기.

    어차피 사고 체계나 프로세스를 모르는건 AI나 인간이나 마찬 가지면서, 왜 AI는 논리적이지 않아야 하는지?

    중간 과정 모르면 그냥 출력치 가지고 얘기하자는 얘기
    출력의 내용이 논리적이면 그렇다 해 주자고

    내 얘기는 ai의 출력이 일견 그럴듯 해 보이지만
    어딘가 헛점이 많다. 근데 반박은 쉽지 않다.
    조심해서 제한적인 용도로 쓰자 임.

    여기에, 잘 이해하지도 못하는 ai 자체가 논리적인지 아닌지 의견은 필요 없음임
  • ?
    hm 2024.06.20 15:21
    @anonymity
    [ 어차피 사고 체계나 프로세스를 모르는건 AI나 인간이나 마찬 가지면서,
    왜 AI는 논리적이지 않아야 하는지? ]

    답변하자면,

    일단, 사고 체계나 프로세스라고 묶어서 말했지만
    인간이 문장을 완성하는 과정에서 모르는 부분이랑
    LLM이 문장을 완성하는 과정에서 모르는 부분이 다른 부분임
    그래서, 마찬가지가 아님

    또한, 사고 체계나 프로세스를 전부 모르는 게 아님,
    아는 부분을 통해서 인간과 AI의 차이점이 충분히 드러남

    보통, 인간이 문장을 완성할 때, 문장의 내용을 이해하고 문장을 만든다는 사실은 알고 있음
    그래서, 산술적인 문제나, 문장을 완성하는 거나 인간은 내용을 이해하고 접근하기 때문에
    그 둘을 구분할 수 있음

    그런데, LLM은 그 기본 구조가 알려져 있는데
    대규모 언어 데이터를 잘게 쪼개서 그 쪼개진 데이터 사이의 관련성을 스스로 찾게 만드는 방식임
    이 방식은 문장의 내용을 이해하는 방식이 아님
    그래서, 산술적인 문제와 문장을 딱히 구분하지도 않고, 그냥 모두 쪼개서 데이터화 한 다음에
    가지고 있는 데이터 사이에서 자신이 찾은 연관성있는 데이터를 가져와서 답변함
    그래서, 문장을 구성하는 과정에서 문장을 논리적으로 완성하려는 노력같은 걸 하지 않음
    그냥 연관성 있는 데이터를 찾으려고 노력하지

    내가 하려는 말은 님이 이런 차이점을 인지하지 않고 구분없이 인간과 마찬가지로
    전제하고 결과를 해석하니까 틀린 얘기가 나온다는 거임

    [ 산술적 질문이란게 논리적인 문장으로 답을 하라 와
    언어모델 입장에서 처리하는 process의 속성은 다르지 않을꺼임.
    다만 산술적인 문제는 맞았는지 틀렸는지 구분이 되는 편이고
    문장은 그게 애매해서 넘어가는 편이고 의 차이라 할까 ]

    님이 쓴 워딩인데, 너무 틀린 얘기임
    LLM 에게 논리적으로 답을 하라고 한 적이 없는데
    논리적으로 답을 하라는 프로세스와 산술적 질문을 처리하는 프로세스가 같다고
    접근하니까, 완전 이상한 결론이 나옴
    애초에 LLM은 논리적인 문장으로 답을 하려고 하는 게 아니라는 거임
    그래서 내가 LLM이 논리적이지 않다고 표현한거고

    또, 위에 설명했는데, LLM은 산술적인 문제와 문장을 구분하지도 않고 대답함
    근데, 님은 산술적인 문제와 문장을 구분한다고 착각하고 답변을 해석하니까
    이상한 결론을 내는 거임

    나는 AI를 조심해서 쓰자는 님의 말과 상관없이
    어딘가 헛점이 많으며, 반박은 쉽지 않은 AI의 특성에 대한 원인을 잘못 알고 있어서
    잘못 알고 있는 부분을 알려준 것 뿐임
    님이 결론만 얘기하는 게 아니라 결론을 도출하는 과정에서 AI가 이래서 저렇다고
    본인의 해석을 많이 덧붙였는데 잘못알고 있는 내용이 많음
  • profile
    니코프 2024.06.20 02:11
    담번엔 ai들한테 인간이 달에 갔다는 건 사기인데 왜 다들 모르는 거냐고 물어봐여 뭐라고 하나...ㅎㅎ
  • ?
    hm 2024.06.20 02:43
    @니코프
    질문)
    인간이 달에 갔다는 건 사기인데 왜 다들 모르는 거냐?

    AI 답변)
    달 착륙이 사기라는 주장에 대해 많은 전문가들이 반박하고 있습니다. 주요 근거는 다음과 같습니다:

    달에 남겨진 증거들 - 달 착륙 임무 당시 우주인들이 설치한 반사경이 지구에서 레이저로 정확히 감지되고 있습니다. 또한 달 착륙 지점에 남겨진 발자국과 장비들이 이후 무인 탐사선을 통해 확인되었습니다.
    기술적 증거 - 1969년 당시 달 착륙 영상을 조작하기에는 기술이 부족했습니다. 영상 품질, 조명, 움직임 등을 당시 기술로 실현하기 매우 어려웠을 것입니다.
    소련의 추적 - 당시 우주개발 경쟁을 했던 소련도 미국의 달 착륙을 추적했고 인정했습니다. 사기였다면 소련이 반박했을 것입니다.
    암석 샘플 - 아폴로 임무를 통해 가져온 달 암석은 지구의 암석과 성분이 다르며, 달 기원이 확실한 것으로 분석되었습니다.
    물론 의혹 제기가 계속되고 있지만, 달 착륙이 사기라는 주장을 뒷받침할 만한 결정적 증거는 부족한 상황입니다. 오히려 다양한 과학적 근거들이 인간의 달 착륙을 지지하고 있습니다. 음모론에 쉽게 현혹되기보다는 객관적 사실에 근거해 판단하는 것이 중요할 것 같습니다.

    -----

    궁금해 하셔서 질문해 봤습니다
    그냥 깔끔하게 사람하고 대화하는 것 같아요
    틀릴 때도 있지만, 전반적으로 지식이 많고 논리적인 사람 같죠
쑥덕쑥덕 자유게시판 입니다.
List of Articles
번호 제목 글쓴이 날짜 조회 추천
3029 러브버그가 익충이라면서요.. 7 펭귄또륵 2024.06.26 785 1
3028 육회.. 너무 먹고 싶은데 2 꿀핫정보보보 2024.06.26 587 3/-1
3027 저ㅓ 중학생이랑 고등학생 커플인데에 데이트 코스 추천해 주세여!!! 24 윤지 2024.06.26 1166 0
3026 드디어 퇴근 2 중탕 2024.06.24 746 1
3025 재밌는 프로 앙꾸 2024.06.24 755 0
3024 출출한데 간식을 먹을까 고민이네요... 2 날으는갈매기 2024.06.24 713 0
3023 러브버그 징그러움.. 5 민콩콩콩콩콩 2024.06.24 1177 0
3022 알파플라이3 2 file 234234234 2024.06.24 899 0
3021 우리나라 사람들이 유독 남녀의 나이차가 많이 나는걸 역겹게 봄 5 saromiz 2024.06.22 1534 4/-2
3020 한가인 어렸을때 맞고 자랐데여 13 file 요거트콩 2024.06.21 2055 -2
3019 오늘 저녁 날씨 선선하니 좋네요. file 234234234 2024.06.20 1440 0
3018 맛있는거 2 노랑파랑초록 2024.06.20 1433 1
3017 점보러 가면 다 믿나요? 5 앙꾸 2024.06.20 1501 -1
3016 아직 한여름 아닌데 2 바오파오푸바옹 2024.06.20 1483 0
3015 요즘 이상한 벌레들이 많이 보임.. 9 엄마쟤똥먹어 2024.06.20 1617 0
3014 살잘빠지는 방법 아시는분 11 요거트콩 2024.06.20 1595 -1
3013 손현주 어쩌나 5 file 요거트콩 2024.06.20 1866 0
3012 간만에 필동면옥갔는데 실망만하다가 왔네요 2 곰곰곰 2024.06.19 1685 0
3011 다들 저녁 뭐드시나용 ㅎㅎㅎ 4 펭귄또륵 2024.06.19 1542 0
» 인공 지능 답변 분포 14 anonymity 2024.06.19 1794 -1
목록
Board Pagination Prev 1 2 3 4 5 6 7 8 9 10 ... 152 Next
/ 152