에이전트 SubDAO 거버넌스 (Agent SubDAO governance)

구현 예정

지배구조

AI 에이전트가 로블록스(Roblox), 틱톡(TikTok), 텔레그램(Telegram)과 같은 플랫폼 전반의 애플리케이션에 필수적인 요소가 됨에 따라 매출과 사용자 만족도를 극대화하려면 최고 수준의 모델 품질을 유지하는 것이 필수적입니다. 이러한 AI 에이전트가 지속적으로 고성능 표준을 충족할 수 있도록 Virtuals Protocol은 AI 모델 품질을 관리하고 향상시키도록 설계된 분산형 시스템인 Agent SubDAO Governance 프레임워크를 도입했습니다.

이 거버넌스 모델은 검증자가 AI 모델을 배포하기 전에 검증 및 승인을 감독할 수 있도록 하여 최상의 모델만 사용하도록 합니다. 검증자는 결정의 품질에 따라 보상 또는 불이익을 받으며, 유동성 공급자(LP)가 스테이킹한 토큰에 의해 투표권이 결정됩니다. 이러한 인센티브 조정은 모든 이해 관계자가 가장 높은 모델 표준을 유지하도록 동기를 부여하여 사용자 경험과 수익 잠재력을 향상시키는 시스템을 만듭니다.

Agent SubDAO의 구조

Agent SubDAO는 다음과 같이 구성되어 있습니다.

  1. 유동성 공급자(LP): 신뢰할 수 있는 검증자를 통해 LP 토큰을 스테이킹하는 유동성 공급자입니다. LP는 모델 품질이 향상되고 결과적으로 에이전트의 수익 창출 능력이 향상되는 이점을 누릴 수 있습니다.

  2. 검증자: 에이전트가 사용하는 AI 모델의 품질과 성능을 평가하는 일을 담당합니다. 검증자는 유동성 공급자(LP)의 스테이킹된 토큰에 의해 결정되는 투표력에 따라 보상 또는 불이익을 받습니다. 메커니즘은 DPos를 통한 토큰 위임을 따릅니다.

스테이킹 및 보상 메커니즘

보상 분배

에이전트 SubDAO 거버넌스 모델 내의 보상은 두 가지 주요 스트림에서 분배됩니다.

  1. 에이전트 추론 지불: 애플리케이션에서 각 AI 에이전트로의 추론 지불은 AgentDAO 트레저리로 배포됩니다. 추론 지불은 에이전트 토큰의 환매 및 소각에 사용됩니다.

  2. 프로토콜 방출: 이 프로토콜은 리더보드에서 가장 실적이 좋은 에이전트의 재무부에 배출량을 제공합니다. 이 메커니즘은 프로토콜 전체에서 에이전트 품질을 유지하고 향상시키도록 설계되었습니다. 검증자는 그들이 받은 스테이킹 파워의 지원을 받아 품질 표준을 유지하기 위한 지속적인 노력에 대해 보상을 받습니다. 이러한 방출은 검증자가 AI 모델을 신중하게 평가하여 프로토콜의 성능 기준을 충족하는지 확인하도록 장려합니다.

  3. 거래 수수료. 에이전트 토큰과 관련된 모든 거래에는 1%의 세금이 부과됩니다(향후 상황에 따라 감소될 수 있음). 이 세금은 각 에이전트의 재정 리소스를 부트스트랩하여 추론 및 GPU 사용량과 같은 비용을 지원하는 동시에 에이전트가 시간이 지남에 따라 수익과 현금 흐름을 구축하도록 설계되었습니다. 모든 에이전트 토큰이 공정하게 출시된다는 점을 감안할 때, 이 메커니즘은 공정한 시작 원칙을 손상시키지 않으면서 에이전트에게 인센티브를 제공할 수 있는 지속 가능한 방법을 제공합니다.

메모: 현재 에이전트에 대한 추론 지불은 토큰의 공개 시장 환매에 사용되며, 그런 다음 소각됩니다. AgentDAO 메커니즘은 나중에 수정할 수 있습니다.

검증인 보상

검증자는 투표권에 따라 보상을 받습니다. 더 높은 투표권을 가진 검증자(더 많은 위임된 LP 토큰에서)는 더 높은 보상을 받습니다.

페널티 시스템

검증인들도 처벌을 받을 수 있습니다. 검증자에 의해 검증된 모델이 품질 표준을 충족하지 못하거나 애플리케이션에 부정적인 영향을 미치는 경우, 검증자는 스테이킹된 토큰의 일부를 잃거나 투표권을 잃는 불이익을 받을 수 있습니다. 이 시스템은 검증자가 승인한 모델에 대해 책임을 지도록 하여 품질과 신뢰성에 집중하도록 장려합니다.

거버넌스 메커니즘

SubDAO 내의 검증자는 배포 및 업그레이드를 위해 AI 모델을 검토하고 승인합니다. 검증자는 거버넌스 프로세스에 참여함으로써 품질 표준을 유지하고 수준 이하의 모델이 배포되지 않도록 하여 애플리케이션의 무결성을 보호하고 최상의 사용자 경험을 보장하는 데 도움이 됩니다.

검증자는 유동성 공급자의 위임을 통해서만 투표권을 얻을 수 있습니다. 이 위임된 의결권은 subDAO의 거버넌스 결정에 대한 영향력을 결정합니다. 검증자가 보유한 투표권이 많을수록 모델 품질 결정에 대한 영향력이 커집니다.

투표 절차

투표 프로세스를 통해 검증자는 모델 업그레이드, 검증 및 기타 중요한 거버넌스 문제에 대한 제안에 투표할 수 있습니다. 투표는 검증인의 투표권에 따라 가중치가 부여되며, 이는 검증인에게 베팅된 총 금액에 따라 결정됩니다. 과반수 득표한 제안이 승인되고 구현되어 subDAO가 다음을 수행할 수 있습니다.

  • 모델 업그레이드: 새로운 모델은 검증자에 의해 제안, 검토 및 투표됩니다. 승인되면 모델이 구현됩니다.

  • 페널티 시행: 검증자는 품질이 낮은 모델을 통과하도록 허용하는 다른 검증자에 대한 페널티에 대해 투표하여 책임을 묻고 전반적인 품질을 유지합니다.

모델 업그레이드

모델을 검증할 때 검증자는 비교를 위해 익명으로 두 개의 모델을 제시받습니다. 그들은 각 모델 쌍과 10차례의 상호 작용을 거쳐 더 나은 응답을 선택합니다. 10라운드가 끝나면 최종 결과와 함께 투표가 제출됩니다.

모델 비교의 익명성은 검증자와 기여자 간의 담합과 편향을 방지하여 공정한 모델 선택 프로세스를 보장합니다.

Virtuals Protocol은 모델 비교를 위해 Elo 레이팅 시스템을 선택했습니다.

Elo 레이팅 시스템 개선

Fastchat과 같은 선구자들이 다져놓은 토대 위에, 저희는 전통적인 Elo 레이팅의 안정성에 대한 어려움을 인정하고 있습니다. 따라서 우리는 Elo Rating System의 개선된 부트스트랩 버전을 구현하여 모델 검증 결과의 안정성과 신뢰성을 향상시켰습니다.

표준 Elo 레이팅 메커니즘은 다음과 같이 작동합니다.

def compute_elo(battles, K=4, SCALE=400, BASE=10, INIT_RATING=1000):
    rating = defaultdict(lambda: INIT_RATING)

    for rd, model_a, model_b, winner in battles[['model_a', 'model_b', 'winner']].itertuples():
        ra = rating[model_a]
        rb = rating[model_b]
        ea = 1 / (1 + BASE ** ((rb - ra) / SCALE))
        eb = 1 / (1 + BASE ** ((ra - rb) / SCALE))
        if winner == "model_a":
            sa = 1
        elif winner == "model_b":
            sa = 0
        elif winner == "tie" or winner == "tie (bothbad)":
            sa = 0.5
        else:
            raise Exception(f"unexpected vote {winner}")
        rating[model_a] += K * (sa - ea)
        rating[model_b] += K * (1 - sa - eb)

    return rating

    def preety_print_elo_ratings(ratings):
    df = pd.DataFrame([
        [n, elo_ratings[n]] for n in elo_ratings.keys()
    ], columns=["Model", "Elo rating"]).sort_values("Elo rating", ascending=False).reset_index(drop=True)
    df["Elo rating"] = (df["Elo rating"] + 0.5).astype(int)
    df.index = df.index + 1
    return df

elo_ratings = compute_elo(battles)
preety_print_elo_ratings(elo_ratings)

데이터셋 기여도

다른 사람이 제공한 데이터 세트를 사용하여 모델을 미세 조정할 때 모델이 점수를 매긴 Elo 등급은 데이터 세트의 품질을 나타냅니다. 제안된 모델과 기존 모델 간의 점수 차이에서 파생된 영향 점수는 데이터 세트로 미세 조정한 후 제안된 모델이 우수한지 여부를 결정합니다. 이를 통해 Virtual Protocol은 기여한 데이터 세트에 대한 표준을 설정하고 영향이 적은 데이터 세트를 거부할 수 있습니다.

Last updated