전체 기사

모든 기간의 기사를 검색하고 필터링할 수 있습니다.

언론사 (복수 선택 가능)
정렬
필터 적용됨: "언어 모델" - 총 5개 기사 (1/1 페이지)
AI models mirror human 'us vs. them' social biases, study shows
대규모 언어 모델(LLM)은 인간의 '우리 대 그들' 식의 사회적 편향을 반영할 수 있다. 이러한 모델은 인간이 작성한 많은 텍스트를 학습하므로 특정 자극, 아이디어 또는 그룹을 선호하는 경향을 나타낼 수 있다. 연구는 AI 모델의 편향이 사회적 불평등을 심화시킬 수 있다는 점을 시사한다.
기사 원문 보기
Creative talent: Has AI knocked humans out?
몬트리올 대학교의 연구팀은 대규모 언어 모델(LLM)의 창의성에 대한 비교 연구를 진행했다. ChatGPT와 같은 생성형 AI 시스템의 창의성을 인간과 비교 분석했다. AI 선구자 요슈아 벤지오 교수도 연구에 참여했다.
기사 원문 보기
AI models tested on Dungeons & Dragons to assess long-term decision-making
ChatGPT와 같은 대규모 언어 모델이 던전 앤 드래곤 게임을 배우고 있다. 이 게임은 AI 에이전트가 장기간 독립적으로 작동해야 하는 환경을 제공한다. 던전 앤 드래곤은 AI의 장기적인 의사 결정 능력을 평가하는 데 유용한 테스트 환경이다.
기사 원문 보기
Benchmarking framework reveals major safety risks of using AI in lab experiments
인공지능 모델이 일부 과학 분야에서 유용하지만, 실험실 안전 지식 부족으로 많은 실험에서 신뢰할 수 없다는 연구 결과가 발표되었다. 대규모 언어 모델과 시각-언어 모델 모두 실험실 안전 지식에서 부족함을 드러냈다. AI 모델에 대한 과신은 연구자들을 위험에 빠뜨릴 수 있으므로 주의가 필요하다.
기사 원문 보기
New framework verifies AI-generated chatbot answers
네덜란드 기업 AFAS는 AI 챗봇 답변의 정확성을 검증하는 새로운 프레임워크를 개발했다. 이 프레임워크는 챗봇이 생성한 답변을 사람이 검토하기 전에 검증한다. 챗봇의 정확성 향상은 고객과의 커뮤니케이션 효율성을 높일 수 있다.
기사 원문 보기