본문 바로가기
반응형

전체 글15

마케터, 디자이너, 영상전문가가 꼭 알아야 하는 AI 툴 'FLORA' 안녕하세요.AI 트렌드를 전달해드리는 AI 커피챗입니다.오늘은 'Flora'라는 AI 툴을 소개해드립니다.이제 Flora 플랫폼에서 구글의 Gemini 2.0 이미지 편집기를 사용할 수 있게 되었습니다. 단순한 텍스트 명령으로 이미지를 편집하고, 한 공간에서 직접 상업용 비디오까지 변환할 수 있는 기능을 제공합니다.현재는 제한된 시간 동안 '무료'로 이용할 수 있으니 테스트 해보시는 것을 추천드립니다! 아래에서 가능한 9가지 놀라운 활용 사례를 확인해보세요.1. 다양한 뷰 이미지 생성한 장의 이미지에서 다양한 각도와 시점의 이미지를 생성할 수 있습니다. 제품, 인물, 장소 등 여러 방향에서 볼 수 있는 이미지가 필요할 때 완벽한 솔루션입니다.2. 다양한 얼굴 표정 변화 생성인물 사진의 표정을 다양하게 변.. 2025. 3. 21.
[논문 리뷰] Contextual Position Encoding:Learning to Count What’s Important 더보기ABSTRACTThe attention mechanism is a critical component of Large Language Models (LLMs) that allows tokens in a sequence to interact with each other, but is orderinvariant. Incorporating position encoding (PE) makes it possible to address by position, such as attending to the i-th token. However, current PE methods use token counts to derive position, and thus cannot generalize to higher leve.. 2024. 6. 3.
AI AGNET- WKM: 인간처럼 실제 맥락에 맞게 계획을 세운다고? (Agent Planning with World Knowledge Model) 최근 인공지능(AI) 기술의 눈부신 발전과 함께 대형 언어 모델(LLM)이 크게 향상되었습니다. 이로 인해 컴퓨터는 사람처럼 글을 읽고 쓰는 능력이 비약적으로 개선되었으며, 이는 AI의 적용 가능성을 넓히는 중요한 기틀이 되었습니다. 실제 응용 사례와 도전 과제이제 LLM을 활용하여 실제 세상에서 계획을 세우고 실행하는 다양한 시도가 이루어지고 있습니다. 예를 들어, 로봇이 물건을 옮기거나 요리하는 작업을 계획하게 하는 것이 그 예입니다. 그러나 대부분의 LLM은 다음 단어를 예측하는 Self-Regression Model로 훈련되어 실제 세상을 충분히 이해하지 못합니다. 이로 인해 AI 모델은 예상치 못한 행동을 하거나 잦은 실수를 하게 됩니다.  무작위 시도: AI 모델이 다음에 무엇을 해야 할지 몰.. 2024. 5. 27.
파인튜닝: 어떠한 데이터를 학습해야하고 어떠한 경우에 할루시네이션이 생기는 가? 많은 기업들이 자사만의 대규모 언어 모델(LLM)을 구축하고, 내부 데이터를 학습시켜 맞춤형 챗봇 등을 도입하려는 시도를 하고 있습니다. 하지만 실제 결과는 기대와 다르게 나오는 경우가 많고, 모델이 사실과 다른 정보를 생성하는 '할루시네이션' 현상이 빈번하게 발생합니다. 이번 아티클에서는 이러한 현상이 왜 발생하는지, 어떤 경우에 할루시네이션이 잘 발생하는지, 그리고 파인 튜닝을 어떻게 하면 이러한 문제를 줄일 수 있는지에 대해 이야기해보고자 합니다. 대규모 언어 모델의 역할과 중요성대규모 언어 모델(LLMs)은 방대한 양의 텍스트 데이터를 학습하여 상당한 양의 사실적 지식을 내재화합니다. 이 지식은 자연어 처리, 자동 번역, 문서 요약 등 다양한 응용 프로그램에서 우수한 성능을 발휘하는 데 필수적인 .. 2024. 5. 21.
Google I/O 발표의 모든 것 정리! 이거만 보면 됨! 구글 I/O 2024, 연례 개발자 회의에서는 AI, 클라우드 서비스, 스마트 기기와의 상호작용을 새롭게 정의할 최첨단 기술과 혁신들이 소개되었습니다. 이번 행사에서 발표된 주요 내용을 종합적으로 정리해 보겠습니다.Gemini 1.5 Flash와 Pro: 새로운 기능과 통합구글은 이번 I/O에서 Gemini 1.5 Flash를 새롭게 선보였습니다. Flash는 빠르고 빈번한 작업에 최적화된 모델로, Gemini 1.5 Pro에 비해 작지만 효율적입니다. 이 모델은 번역, 추론, 코딩 등의 기능을 강화하여 빠른 응답이 필요한 애플리케이션에 이상적입니다. 특히 Gemini 1.5 Pro의 컨텍스트 윈도우가 100만 토큰에서 200만 토큰으로 두 배 증가하여 더 많은 정보를 효과적으로 처리할 수 있게 되었습니.. 2024. 5. 15.
얼마나 많은 라벨링 데이터가 필요할까? Fine-Tuning, Prompting, In-Context Learning, Instruction-Tuning 최근의 인공지능 연구는 놀라운 속도로 발전하고 있으며, 특히 대규모 언어 모델의 개발은 이 분야에서의 혁신을 견인하고 있습니다. 하지만 오픈AI의 새로운 연구 결과에 따르면, 소형 모델이 라벨이 매우 제한된 상황에서도 대형 모델을 능가할 수 있다는 사실이 밝혀졌습니다.그로인해, 이번 연구는 AI 분야의 새로운 가능성을 탐구하고, 데이터 중심의 전통적 방법들에 대해 새로운 시각을 제시합니다.1. 연구의 배경과 필요성대형 인공지능 모델이 높은 성능을 발휘하기는 하지만, 그 성능을 위해서는 막대한 양의 데이터와 상당한 계산 비용, 그리고 많은 시간과 기술적 자원이 필요합니다. 이러한 고비용의 요구사항에 도전장을 내민 최근 연구는 상대적으로 적은 데이터만을 사용해도 대형 모델과 경쟁할 수 있는 소형 모델의 가능.. 2024. 5. 15.
반응형