창작자, 지적 재산권 보유자, 그리고 생성형 AI 기업 간에 데이터의 윤리적 사용을 둘러싼 지속적인 분쟁에 대응하여, 새로운 비영리 단체인 Fairly Trained가 생성형 AI 모델 개발에 있어 투명하고 합의에 기반한 데이터 활용 방식을 선도하는 단체로 등장했습니다.
에드 뉴턴 렉스 CEO가 이끄는 Fairly Trained는 데이터 제공자로부터 동의를 얻는 것을 우선시하는 생성형 AI 기업과 그러한 법적 의무에 반대하는 기업 간의 격차를 해소하는 것을 목표로 합니다. 이 단체는 소비자가 기업이 저작권 자료를 어떻게 처리하는지에 대한 투명성을 누릴 자격이 있다고 믿으며, 이에 대한 해답으로 윤리적인 데이터 사용에 전념하는 기업을 위한 인증 절차를 제공합니다.
L 인증: 동의 기반 교육의 표시
Fairly Trained는 현재 '라이선스 모델 인증(L 인증)'이라는 단일 인증을 제공합니다. 이 인증은 합의된 계약을 통해 얻은 데이터를 사용하여 모델을 학습시킨 모든 생성형 AI 시스템 제공업체가 취득할 수 있습니다.
L 인증을 받으려면 기업은 학습 데이터가 특정 요건을 충족하는지 확인해야 합니다. 첫째, 데이터는 필요한 권리를 보유한 당사자와의trac에 따라 모델 개발자에게 제공되어야 합니다. 둘째, 데이터는 오픈 라이선스 하에 있거나, 공공 영역에 있거나, 모델 개발자가 완전히 소유하고 있어야 합니다. 음반사나 스톡 이미지 라이브러리와 같이 창작자에게 라이선스를 부여하는 기관으로부터 라이선스를 취득하는 것은 인증 목적상 동의로 간주됩니다.
엄격한 신청 절차 및 지속적인 규정 준수
인증을 받으려는 기업은 꼼꼼한 신청 절차를 거쳐야 합니다. 여기에는 탄탄한 데이터 실사 프로세스를 입증하고 각 모델에 사용된 학습 데이터에 대한 포괄적인 기록을 유지하는 것이 포함됩니다. 신청 절차는 온라인 양식 제출로 시작되며, Fairly Trained는 제출된 내용을 검토하고 필요한 경우 추가 정보를 요청합니다.
신청이 승인되면 기업은 매출액에 따라 연간 500달러에서 6,000달러 사이의 인증 수수료를 납부해야 합니다. 이 수수료는 Fairly Trained가 생성형 AI 산업 내 윤리적 기준을 유지하기 위한 지속적인 노력에 사용됩니다.
위반 시 경고 및 인증 취소
Fairly Trained는 윤리적 기준 준수에 대한 확고한 의지를 강조하며, 규정이나 기준을 위반하는 기업은 인증이 취소될 수 있음을 경고합니다. 또한, 인증 결과에 영향을 미칠 수 있는 새로운 정보가 드러날 경우, Fairly Trained는 환불 없이 인증을 철회할 권리를 보유합니다.
Fairly Trained는 생성형 AI 시스템 개발 과정에서 데이터의 윤리적 사용에 대한 우려가 커지는 추세에 맞춰 L 인증을 도입했습니다. 동의 기반 관행에 대한 명확한 프레임워크를 제공함으로써, Fairly Trained는 AI 학습 과정에서 윤리적 고려를 우선시하는 기업에 대한 정보를 소비자에게 제공하고자 합니다. 생성형 AI 환경이 지속적으로 발전함에 따라, Fairly Trained의 인증은 업계에서 책임감 있고 투명한 데이터 관행에 대한 의지를 입증하고자 하는 기업들에게 중요한 기준점이 될 수 있을 것입니다.

