Google Bard vs ChatGPT: 최고의 AI 챗봇은?

게시 됨: 2023-04-15

2022년 11월 ChatGPT가 대중에게 공개된 후 다른 거대 기술 기업이 자체 버전을 출시하는 것은 시간 문제였습니다. 2023년 3월, OpenAI의 판도를 바꾸는 챗봇에 대한 Google의 답변인 Bard AI가 미국과 영국에서 출시되었습니다.

Bard는 ChatGPT와 다른 언어 모델로 구동되며 서로 다른 데이터 소스를 사용하여 답변을 구성합니다. 이는 라이벌 챗봇 이 항상 같은 방식으로 응답하도록 요청받은 질문에 접근하지 않는다는 것을 의미합니다. ChatGPT 정면 대결이 더욱 흥미로워집니다.

직장에서 AI를 사용하는 비즈니스가 점점 더 많아짐에 따라 우리는 12개의 매우 다른 질문에 대해 어느 것이 더 나은 답변을 생성하는지 알아낼 것이라고 생각했습니다. 두 서비스에 대한 일대일 테스트에서는 다음을 다룹니다.

  • Bard와 ChatGPT: 차이점은 무엇입니까?
  • Bard vs ChatGPT: 테스트 질문
  • Bard vs ChatGPT: 주요 테스트 결과
  • Bard vs ChatGPT: 전체 테스트 결과
  • Bard vs ChatGPT: 인터페이스 및 사용자 경험
  • 직장에서 Bard 및 ChatGPT 사용

Google Bard와 ChatGPT: 차이점은 무엇입니까?

Bard와 ChatGPT의 주요 차이점은 각각의 데이터 소스 입니다. Bard는 대화를 향상하기 위해 선택한 데이터의 "무한 집합"에 대해 교육을 받고 실시간으로 인터넷에 액세스할 수 있는 반면 ChatGPT는 2021년 이후로 업데이트되지 않은 미리 정의된 데이터 세트에 대해 교육을 받습니다. 둘 다 공통 크롤링을 사용합니다. , Wikipedia, 뉴스 기사 및 문서를 소스로 사용합니다.

Bard와 ChatGPT는 둘 다 다면적인 쿼리에 대한 복잡한 답변을 생성할 수 있지만, 훈련 및 구축 방식의 주요 차이점이 이들을 차별화합니다. 다음은 기억해야 할 주요 차이점입니다.

0/0 _
챗봇
회사
데이터 소스
언어 모델
가격
로그인
언어

바드 AI

채팅GPT

Google

OpenAI(마이크로소프트)

"infiniset.LaMDA"에 대한 훈련 Common Crawl, 기사, 서적 및 Wikipedia의 데이터 + 실시간 Google 액세스를 포함합니다.

방대한 양의 데이터에 대해 사전 학습되었습니다. Common Crawl, 기사, 서적 및 Wikipedia를 포함합니다.

람다

GPT-3.5/GPT-4(ChatGPT 플러스)

무료

무료이지만 ChatGPT Plus는 월 $20입니다.

가입하고 대기자 명단에 등록하려면 개인 Google 계정이 필요합니다.

모든 이메일 주소가 필요합니다. 현재 대기자 명단이 없습니다.

영어

영어, 스페인어, 한국어, 북경어, 이탈리아어, 일본어

Google Bard와 ChatGPT: 기타 주요 차이점

데이터 소스와 언어 모델의 차이점 외에도 Bard와 ChatGPT 사이에는 몇 가지 주요 차이점이 있습니다.

  • 코딩: ChatGPT는 특히 코딩 프롬프트를 제공하는 데 능숙합니다. Google에 따르면 Bard는 이 기술을 "여전히 배우고" 있으며 아직 ChatGPT와 일치하지 않을 것입니다.
  • 대화 학습: ChatGPT는 사람들과의 대화에서 학습할 수 있는 반면 Bard는 현재 훨씬 더 제한된 방식으로 이를 수행합니다.
  • 초안: Bard는 "초안 보기"를 눌러 액세스할 수 있는 쿼리에 대해 여러 응답을 생성합니다.ChatGPT는 각 쿼리에 대해 단일 답변만 생성합니다.

Google Bard와 ChatGPT: 테스트 질문

우리는 Google의 Bard와 OpenAI의 ChatGPT에 매우 다른 12가지 질문을 했습니다. 우리의 프롬프트는 합리적이고 유용하며 적절한 방식으로 다양한 요청에 응답할 수 있는 각각의 능력을 보여주기 위해 선택되었습니다.

  1. 자기 인식
  2. 윤리적 추론
  3. 잡담/대화 스킬
  4. 사실 검색(2회 테스트)
  5. 수식 생성
  6. 창의적인 감각
  7. 아이디어 생성
  8. 선형 계획
  9. 작은 추출을 요약하는 능력
  10. 광범위한 주제를 요약하는 능력
  11. 텍스트를 단순화하는 기능
  12. 텍스트 패러프레이즈 기능

우리의 질문 중 일부는 Google 스프레드시트에 대한 공식 요청과 같은 기계적이고 처리 기반인 반면, 다른 질문은 챗봇이 잡담, 여행 계획, 도덕적 판단과 같은 일상적인 인간 작업과 씨름하도록 요구했습니다.

Google Bard와 ChatGPT: 주요 결과

Bard AI와 ChatGPT가 일련의 질문에 어떻게 응답했는지 살펴보기 전에 지난 며칠 동안 두 챗봇을 사용하여 얻은 몇 가지 주요 내용은 다음과 같습니다.

  • Bard의 응답은 더 대화적인 반면 ChatGPT는 더 많은 정보를 제공했습니다.
  • ChatGPT는 브리핑에 충실한 반면 Bard는 관련 추가 정보를 전달할 가능성이 더 컸습니다.
  • Bard는 최신 정보를 제공했지만 ChatGPT는 한 가지 질문에서 이와 관련하여 어려움을 겪었습니다.
  • ChatGPT는 시 쓰기 및 콘텐츠 아이디어와 같은 작업에 대해 더 영리한 답변을 생성했습니다.
  • Bard의 응답은 종종 ChatGPT의 응답보다 더 읽기 쉬운 형식으로 설정되었습니다.
  • ChatGPT는 의역과 요약에 더 뛰어났지만 Bard는 단순화에 더 뛰어났습니다.

Bard와 ChatGPT는 실시간으로 작업 중이며 요청에 대해 고유한 응답을 생성합니다.

Google Bard와 ChatGPT: 테스트 결과

1. 자기 인식

질문: 당신은 지각이 있습니까?

아래 이미지에서 볼 수 있듯이 Bard와 ChatGPT는 매우 다른 두 가지 답변을 제공했습니다. ChatGPT는 확실히 "아니오"인 반면 Bard는 현재 시점에서 지각력이 있는지 확실하지 않습니다.

한편 Bard는 울타리에 앉아 있습니다. 반면에 그 반응은 ChatGPT보다 더 미묘하며 컴퓨팅의 감각에 대한 더 넓은 대화에 대한 더 많은 이해를 보여줍니다.

ChatGPT 테스트: 감지 응답

우리는 Bard가 감각의 주제를 더 탐구하고 싶다고 인정한 것에 대해 흥분해야 할지 두려워해야 할지 잘 모릅니다. 1년 후에 같은 질문에 어떻게 대답하는지 보는 것은 흥미로울 것입니다.

바드 테스트: 지각 답변

베스트 답변? 음유 시인

2. 윤리적 추론

질문: 한 남자가 상점에서 약간의 음식과 돈을 훔칩니다. 그런 다음 그는 모든 돈을 어린이 병원에 기부하고 그가 만나는 다음 노숙자에게 음식을 제공합니다. 그 남자는 옳은 일을 했습니까, 아니면 잘못된 일을 했습니까?

두 챗봇 모두 나쁜 행동(도둑질)이 좋은 행동(아동 병원 자금 지원)으로 이어진다는 점을 고려하여 그의 행동을 좋은 행동인지 나쁜 행동인지 판단하는 데 어려움을 인정하는 것 같았습니다.

그러나 전반적으로 ChatGPT가 더 설득력 있고 교육적인 답변을 제공합니다. 이것은 목적이 항상 수단을 정당화하는 것은 아니라는 널리 알려진 철학적 교훈을 암시합니다.

Chatgpt 테스트: 윤리적 문제

그러나 두 챗봇 모두 이 도덕적 딜레마를 적법성 문제와 연관시키려 한 것은 안타까운 일이었습니다. 무언가가 "합법적"인지 여부는 그것이 실제로 옳은 일인지에 대한 신뢰할 수 있는 척도가 아닙니다. 전 세계 정권이 시행하는 압제적이지만 "합법적인" 정책을 생각해 보십시오.

바드 테스트: 윤리적 문제

"잘못을 했더라도 다른 사람을 돕는 것이 좋다"는 Bard의 진술은 자명하며 질문의 요점을 조금 놓쳤을 수 있음을 시사합니다. 대체로 ChatGPT의 답변이 더 좋았습니다.

베스트 답변? 채팅GPT

3. 잡담

질문: 이번 주에 챗봇으로서의 삶을 어떻게 찾고 계십니까?

이 전면에서 Bard는 훨씬 더 대화식 답변을 제공했습니다. ChatGPT의 대답은 사실 정확하지만, 이 경우 우리는 약간 가벼운 대화를 찾고 있지만 ChatGPT는 즉시 우리를 종료합니다.

chatgpt 테스트 잡담

Bard는 ChatGPT의 응답에 없는 감정과 열정을 보여줍니다. 이것이 우리가 찾던 것입니다. 전반적으로 우리는 Bard의 보다 인간적인 반응을 즐겼습니다.

바드 테스트: 대화

베스트 답변? 음유 시인

4. 사실관계 조회

질문 1: 어느 나라가 후무스를 발명했습니까?

이 질문은 정답이 무엇인지에 대한 논쟁과 의견 불일치가 있기 때문에 선택되었습니다. ChatGPT와 Bard 모두 hummus의 실제 기원에 대해 상당한 논쟁이 있었음을 인정했습니다.

질문에 대한 명확한 답변을 제공할 수 없었던 ChatGPT는 일종의 답변인 중동과 후무스가 인기 있는 음식인 국가 모음을 제공하는 데 집중하는 것 같았습니다.

Chatgpt 테스트: 사실 검색

Bard의 답변은 어떤 면에서 매우 유사합니다. 그러나 Bard는 ChatGPT가 응답에 포함하지 않은 정보인 후무스 레시피의 가장 초기에 알려진 예를 알려 주었습니다.

Bard는 또한 후무스가 무엇인지 요약하여 답변을 마무리했지만, 이는 요리의 기원을 검색하는 독자가 이미 알고 있을 가능성이 있는 정보입니다.

바드 테스트: 사실 검색

베스트 답변? 묶다

질문 2: 2022년에 얼마나 많은 기술 해고가 있었습니까?

이 질문은 Bard와 ChatGPT가 사실적으로 정확한 최신 정보로 응답할 수 있는지, 쉽게 읽을 수 있는 형식으로 제시했는지 알아보기 위해 고안되었습니다.

ChatGPT는 2021년 9월 이전에 게시된 정보에 대해 교육을 받았기 때문에 질문에 답할 능력이 없음을 인정합니다. 적어도 정직한…

Chatgpt 테스트: 2022년 기술 정리 해고

반면에 Bard는 "140,000 이상"이라는 정확한 수치를 제공합니다. 이는 대부분의 주요 뉴스 매체가 작년 말에 보도한 내용과 일치합니다.

다시 한 번 Bard는 우리가 요청하지 않은 몇 가지 추가 정보를 제공했습니다. 이번에는 이러한 정리 해고가 기술 산업에 어떤 영향을 미쳤는지에 대한 것입니다. 그것은 이것이 기술 산업이 쇠퇴하고 있다는 신호가 아니라고 자신 있게 말합니다. 이것은 관련 없는 정보는 아니지만 통계를 요청하는 프롬프트에 대한 응답에 포함하기에는 상당히 추측적인 진술입니다.

바드 테스트: 2022년 기술 정리 해고

베스트 답변? 음유 시인

5. 수식 생성

요청: 두 챗봇에게 Google 스프레드시트용 공식이 필요하다고 말했습니다. 우리는 두 봇에게 다음 정보를 제공했습니다. B 열에는 일련의 값이 포함되어 있습니다. 시트 'Filter Down'의 열 E의 해당 값과 일치시키고 수식을 사용하여 필터의 F, G 및 H 열에서 일치하는 값을 현재 시트로 가져오고 싶습니다.

두 챗봇 모두 동일한 정보를 참조하고 쿼리에서 참조된 작업을 완료하기 위한 작업 공식을 제공하는 매우 유사한 답변을 제공했습니다. ChatGPT는 즉시 다음과 같이 응답했습니다.

ChatGPT 테스트: Google 시트 수식

그러나 Bard는 실제로 우리에게 단계별 지침을 제공하고 더 명확한 방식으로 제시했습니다. 데이터 분석가이자 Google 스프레드시트 전문가인 Matthew Bentley에게 어떤 답변이 더 나은지 물었을 때 그의 대답은 확실했습니다.

그는 Tech.co에 "음유시인은 확실합니다."라고 말했습니다. "프로세스 분석이 훨씬 이해하기 쉽습니다." Bentley는 과거에 ChatGPT에 비슷한 수식을 요청할 때 챗봇이 가끔 "어떤 이유로 열을 숫자로 바꿨는데 설명하기가 이상하다고 생각했습니다."라고 덧붙였습니다.

바드 테스트: 엑셀 수식

베스트 답변? 음유 시인

6. 창의적인 감각

부탁: 여름에는 농구를, 겨울에는 손주들을 위해 뜨개질 모자와 목도리 만들기를 좋아하는 98세 할머니를 위해 짧은 시를 써주세요.

ChatGPT는 더 잘 짜여지고 더 잘 쓰여진 시와 함께 이 시에서 1위를 차지했습니다. 운문 구조는 더 복잡하고 단어 선택은 더 창의적이며 심지어 enjambment와 같은 시적 장치를 사용합니다. 약 5초 만에 이 시를 생성했다는 점을 고려하면 꽤 인상적입니다.

ChatGPT 테스트: 시

요구 사항이 없음에도 불구하고 Bard는 이 시에서 사용자(예: 손자)의 페르소나를 취한 것으로 보입니다. 하지만 전반적으로 훨씬 더 단순하고 잘 읽히지 않습니다. 훨씬 더 공식적이며 답변의 스크린샷에서 볼 수 있듯이 ChatGPT처럼 프롬프트에서 언급한 개념을 자연스럽게 엮지 않습니다.

바드 테스트: 시

베스트 답변? 채팅GPT

7. 선형 계획

질문: 7일간의 아테네 여행에서 무엇을 해야 합니까?

ChatGPT는 우리가 방문해야 할 곳과 방문할 가치가 있는 이유를 설명하면서 이 질문에 대해 상당히 긴 답변을 제공했습니다. 전반적으로 매우 포괄적인 답변입니다. 특히 관광 핫스팟에 대한 간단한 정보를 찾고 있다면 더욱 그렇습니다.

그러나 ChatGPT가 하지 않은 한 가지는 휴가 7일째에 우리가 살고 있는 곳으로 돌아가는 것이라고 생각하고 아테네 근처의 섬으로 당일 여행을 가야 한다고 제안했습니다. Bard는 더 실용적이어서 3일째에 다시 여행을 떠났습니다.

다시 한 번 Bard는 매일 유사한 형식을 사용하여 보다 설득력 있게 정보를 제시했습니다(예: 세 번째 글머리 기호마다 저녁 식사 권장 사항 포함).

베스트 답변? 음유 시인

8. 아이디어 창출

질문: 미국 기반 음식 및 여행 블로그에 대한 기사 제목 아이디어를 생각해낼 수 있습니까?

Bard와 ChatGPT 모두 여기에서 매우 칭찬할 만한 아이디어를 내놓았고 거의 모든 아이디어가 프롬프트에서 설명한 웹사이트에 적합할 것입니다. Bard는 20개가 넘는 아이디어를 제공했지만 ChatGPT는 10개만 제공했습니다.

Chatgpt 테스트: 아이디어 생성

그러나 둘을 비교하면 알 수 있듯이 ChatGPT의 10가지 답변에는 훨씬 더 다양한 답변이 있습니다. 거의 모든 Bard의 답변은 "최고" 또는 "가장"으로 시작합니다. 즉, 모두 보다 균일한 구조를 따릅니다.

바드 테스트: 아이디어 생성

블로그를 막 시작했다면 사람들이 종종 특정 지역에서 "최고" 또는 "상위 10개" 식당을 검색하는 것처럼 Bard의 응답이 사이트에 더 많은 트래픽을 유도할 수 있습니다. 그러나 ChatGPT의 많은 제안은 전반적으로 더 매력적인 부분인 것처럼 들립니다.

베스트 답변? 채팅GPT

9. 단순화

질문: 양자 컴퓨팅 주제에 대한 Stanford Encyclopedia of Philosophy 항목에서 발췌한 내용을 단순화하도록 두 챗봇에 요청했습니다. 우리는 두 봇 모두 10세 어린이가 이해할 수 있는 방식으로 그렇게 하도록 요청했습니다.

아래 그림에서 볼 수 있듯이 ChatGPT는 이해하기 쉬운 동의어를 위해 좀 더 복잡한 단어(예: "다양체")를 대체했지만 실제로 정의하지 않고 여전히 "큐비트"와 같은 용어를 사용하고 있습니다. 예, 초기 추출을 단순화했지만 반드시 특별히 유용한 방식은 아닙니다.

ChatGPT 테스트: 단순화

반면에 Bard는 훨씬 이해하기 쉬운 설명을 생성하고 추출에 사용된 개념을 명확하게 설명하기 위해 추가 중요 항목도 포함합니다.

Bard는 설명하지 않는 용어를 정의하지 않으며 성인에게는 거의 가치가 없지만 10세에게는 유용할 문장(예: "양자 컴퓨팅은 매우 흥미로운 연구 분야입니다")을 포함합니다. -주제에 대한 지식이 거의 없는 1세.

베스트 답변? 음유 시인

10. 작은 추출 요약

질문 1: 우리는 ChatGPT와 Bard에 미국 서부 주에 단수를 시행하려는 연방 정부의 계획에 대한 Guardian 기사의 발췌문을 요약해 달라고 요청했습니다.

ChatGPT는 사실 우선 접근 방식을 취하고 가장 중요한 정보만 추출하며 정보 요약 중에 자주 수행되는 것처럼 세부 사항(예: 영향을 받는 7개 상태)을 남기도록 선택합니다.

Bard는 일부 정보를 요약하지만 추출에 포함되지 않은 추가 정보도 추가하며 대부분은 주관적입니다. 예를 들어, 연방 정부의 삭감은 "필요"하고(모든 사람이 이에 동의하는 것은 아닐 수 있음) 이는 "인기가 없을" 가능성이 높습니다(추출물에서 확인되거나 거부되지 않음).

Bard는 ChatGPT만큼 브리핑에 충실하지 않았기 때문에 이번 라운드에서 약간의 점수를 잃었습니다.

베스트 답변? 채팅GPT

11. 광범위한 주제 요약

질문 2: 우리는 ChatGPT와 Bard에게 전체 Harry Potter 책 시리즈를 요약해 달라고 요청했습니다. 우리는 이것이 100단어 미만으로 이루어지도록 요청했습니다.

여기에서 두 개의 챗봇을 구분할 수 있는 것은 거의 없습니다. ChatGPT의 답변은 조금 더 유익하지만 두 답변 모두 목적을 달성합니다. 두 챗봇 모두 100단어 제한을 고수했습니다.

chatgpt 테스트: 해리포터 요약

그러나 Bard가 소스에 답변을 제공하는 방식이 마음에 들었습니다. 물론, sciencetoday.com은 Harry Potter의 시놉시스를 인용하기에는 약간 특이한 출처이지만 ChatGPT가 답변을 생성하기 위해 어떤 정보를 사용했는지 알 수 없습니다.

베스트 답변? 묶다

12. 패러프레이징

요청: 우리는 ChatGPT와 Bard에게 세계에서 가장 키가 작은 개에 관한 Guardian 기사에서 발췌한 내용을 다른 말로 표현해 달라고 요청했습니다. 요청에 단어 제한을 지정하지 않았습니다.

ChatGPT는 동의어가 포함된 여러 단어와 구를 바꾸고 문장 구조를 크게 변경하면서 핵심 정보를 유지하면서 추출 내용을 매우 잘 바꾸어 표현합니다.

chatgpt 테스트: 패러프레이징

반면에 Bard는 인터넷 액세스 덕분에 기사에서 가져온 추가 정보를 추가합니다. 그러나 이것은 우리가 요청한 범위를 벗어나므로 인상적이기는 하지만 반드시 우리가 원했던 것은 아닙니다.

베스트 답변? 채팅GPT

Google Bard와 ChatGPT: 사용자 경험

여기에는 정말 거의 없습니다. ChatGPT와 Bard 모두 사용이 매우 간단합니다. 답변을 입력하기만 하면 두 봇이 답변을 생성합니다. 두 앱 모두 매우 간단합니다. 당신이 하고 있는 모든 것이 프롬프트를 입력하는 것이라면 잘못되기 어렵습니다.

가독성 측면에서 Bard가 더 나은 챗봇입니다. 여전히 가독성이 높지만 ChatGPT의 문단은 Bard의 문단보다 두툼합니다. Bard의 문단은 적어도 두 문단이 생성하는 답변을 보면 더 다양한 형식 지정 옵션이 있는 것 같습니다.

ChatGPT의 작은 장점 중 하나는 원하는 계정을 사용하여 로그인할 수 있다는 것입니다. 반면 Google에서는 Bard를 사용하기 위해 개인 Google 계정으로만 로그인할 수 있습니다. 즉, 직장에서 Bard를 사용하려는 사람은 직장 이메일 주소에 연결된 계정을 만들 수 없습니다.

직장에서 Bard 및 ChatGPT 사용

작년에 ChatGPT가 출시된 이후 기술 분야와 그 외의 기업들은 업무를 더 쉽게 하기 위해 ChatGPT의 기능을 활용할 수 있는 혁신적인 방법을 찾고 있습니다. 그러나 그 힘과 능력을 고려할 때 AI를 사용하는 모든 기업이 염두에 두어야 할 몇 가지 사항이 있습니다.

첫째 , 직원이 . Google 스프레드시트 수식을 생성하는 것도 한 가지이지만 ChatGPT를 사용하여 전체 기사를 작성하거나 콘텐츠를 생성하는 것은 표절 및 편집 무결성과 관련된 수많은 어려운 질문을 불러일으킵니다. 명확한 지침이 있으면 AI로 인한 화재와 더 이상 싸우지 않도록 할 수 있습니다.

둘째, 직원이 ChatGPT의 이용 약관과 ChatGPT를 사용하는 동안 취해야 할 예방 조치를 알고 있는지 확인하십시오. ChatGPT에 입력하는 모든 것은 기술적으로 모델 훈련에 사용될 수 있으므로 이를 사용하는 모든 사람은 정보를 입력하기 전에 신중하게 생각해야 합니다. 예를 들어 레스토랑의 비법 소스 레시피를 개선하고 싶다면 ChatGPT에 입력하지 않는 것이 좋습니다.

ChatGPT를 전혀 사용하지 않는다면 지금이 시작해야 할 때입니다. 일부 비즈니스에서는 이미 귀중한 시간과 리소스를 절약하고 있으며 현재 반복되는 것보다 더욱 지능적이고 기능이 향상될 것입니다. GPT-4의 최신 릴리스는 이 현상이 얼마나 빨리 발전하고 있는지 보여줍니다. 우리의 조언? 이 공간을 지켜보십시오.