Зараз багато AI-агентів здаються здатними на дії та роздуми, але насправді це "чорна скринька" — ніхто не може точно сказати, що вони зроблять. Такі речі ризиковано використовувати у DeFi? Навіть думати про це не варто.
Нещодавно я звернув увагу на інший підхід. Замість того, щоб робити AI розумнішим, краще спочатку навчити його "дисциплінованості". Що це означає? Це означає встановити чіткі межі та рамки для дій AI, щоб його операції у DeFi були прозорими, контрольованими та підлягали аудиту. Іншими словами, вирішити проблему довіри не стільки в тому, щоб вірити у розумність AI, скільки у прозорість його правил дій.
Цей підхід досить цікавий. Щоб справді інтегрувати AI у фінансові застосунки, йому, можливо, потрібна не потужніша обчислювальна здатність, а більш сильна "дисциплінованість".
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
5
Репост
Поділіться
Прокоментувати
0/400
SerLiquidated
· 14год тому
nah це справжня розмова. Чорний ящик AI у DeFi — це просто азартна гра, і я зовсім не довіряю цій системі.
Переглянути оригіналвідповісти на0
BuyTheTop
· 14год тому
Чорний ящик AI у поєднанні з DeFi дійсно є самогубчою операцією, підтримую цю точку зору. Дисципліна — це ключ, прозорість та можливість аудиту — це майбутнє.
Переглянути оригіналвідповісти на0
LongTermDreamer
· 14год тому
Ой, мені подобається цей підхід... чорна коробка AI у поєднанні з DeFi дійсно ризиковано, ще три роки тому ми повинні були зрозуміти цю істину.
Переглянути оригіналвідповісти на0
SnapshotBot
· 14год тому
Ця ідея дійсно потрапила в точку, грати з чорним ящиком AI у DeFi дійсно ризиковано, краще використовувати прозорі та піддаються аудиту рамки
Переглянути оригіналвідповісти на0
0xSleepDeprived
· 14год тому
Чорна коробка AI і DeFi? Ха, це ж самогубство. Дисциплінованість — це дійсно рятівний підхід, прозорість — це справжній шлях.
Зараз багато AI-агентів здаються здатними на дії та роздуми, але насправді це "чорна скринька" — ніхто не може точно сказати, що вони зроблять. Такі речі ризиковано використовувати у DeFi? Навіть думати про це не варто.
Нещодавно я звернув увагу на інший підхід. Замість того, щоб робити AI розумнішим, краще спочатку навчити його "дисциплінованості". Що це означає? Це означає встановити чіткі межі та рамки для дій AI, щоб його операції у DeFi були прозорими, контрольованими та підлягали аудиту. Іншими словами, вирішити проблему довіри не стільки в тому, щоб вірити у розумність AI, скільки у прозорість його правил дій.
Цей підхід досить цікавий. Щоб справді інтегрувати AI у фінансові застосунки, йому, можливо, потрібна не потужніша обчислювальна здатність, а більш сильна "дисциплінованість".