Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Lớp Phán Xét: Tại sao AI chưa thông minh cho đến khi các nhà lãnh đạo trở nên thông minh hơn
Guillermo Delgado Aparicio là Nhà Lãnh đạo AI Toàn cầu tại Nisum.
Khám phá các tin tức và sự kiện fintech hàng đầu!
Đăng ký nhận bản tin FinTech Weekly
Được đọc bởi các giám đốc điều hành tại JP Morgan, Coinbase, Blackrock, Klarna và nhiều hơn nữa
AI trong fintech bao gồm nhiều trường hợp sử dụng, từ phát hiện gian lận và giao dịch thuật toán đến xếp hạng tín dụng động và đề xuất sản phẩm cá nhân hóa. Tuy nhiên, một báo cáo của Cơ quan Quản lý Tài chính cho thấy trong số 75% các công ty sử dụng AI, chỉ có 34% hiểu cách hoạt động của nó.
Vấn đề không chỉ là thiếu nhận thức. Đó là sự hiểu lầm sâu sắc về sức mạnh và phạm vi của phân tích dữ liệu, lĩnh vực sinh ra AI. Việc phổ biến rộng rãi các công cụ AI tạo sinh đã đưa chủ đề này lên cấp cao nhất của doanh nghiệp. Nhưng nhiều người trong số những người quyết định cách triển khai AI không hiểu các nguyên lý cơ bản của tính toán, thống kê và các thuật toán nâng cao.
Lấy ví dụ, Luật Benford, một nguyên tắc thống kê đơn giản giúp phát hiện gian lận bằng cách nhận diện các mẫu trong số liệu. AI dựa trên loại toán học tương tự, chỉ mở rộng quy mô lên hàng triệu giao dịch cùng lúc. Bỏ qua những lời đồn đại, nền tảng vẫn là thống kê và thuật toán.
Đây là lý do tại sao việc nâng cao kiến thức về AI ở cấp lãnh đạo là quan trọng. Những nhà lãnh đạo không thể phân biệt được nơi kết thúc của phân tích dữ liệu sẽ có nguy cơ quá tin tưởng vào hệ thống mà họ không hiểu hoặc sử dụng chúng một cách thiếu cẩn trọng vì sợ hãi. Và lịch sử cho thấy điều gì xảy ra khi các nhà ra quyết định hiểu sai công nghệ: các cơ quan quản lý từng cố cấm các cuộc gọi IP quốc tế, chỉ để chứng kiến công nghệ vượt qua các quy định. Cơ chế tương tự đang diễn ra với AI. Bạn không thể chặn hoặc áp dụng mù quáng; bạn cần có phán đoán, bối cảnh và khả năng điều hướng nó một cách có trách nhiệm.
Các nhà lãnh đạo fintech phải khắc phục những khoảng trống này để sử dụng AI một cách có trách nhiệm và hiệu quả. Điều đó có nghĩa là hiểu rõ nơi kết thúc của phân tích dữ liệu và bắt đầu của AI, xây dựng kỹ năng để điều hướng các hệ thống này, và áp dụng phán đoán hợp lý để quyết định khi nào và như thế nào để tin tưởng vào kết quả của chúng.
Giới hạn, điểm mù và ảo tưởng của AI
Phân tích dữ liệu phân tích quá khứ và hiện tại để giải thích những gì đã xảy ra và tại sao. AI phát triển dựa trên nền tảng đó, sử dụng phân tích nâng cao để dự đoán những gì sẽ xảy ra tiếp theo và ngày càng tự động quyết định hoặc hành động dựa trên đó.
Với khả năng xử lý dữ liệu xuất sắc, dễ hiểu tại sao các nhà lãnh đạo fintech lại xem AI như một giải pháp kỳ diệu. Nhưng AI không thể giải quyết mọi vấn đề. Con người vẫn có lợi thế vốn có trong việc nhận diện mẫu, đặc biệt khi dữ liệu không đầy đủ hoặc “bẩn”. AI có thể gặp khó khăn trong việc hiểu các sắc thái ngữ cảnh mà con người có thể nhanh chóng nắm bắt.
Tuy nhiên, nghĩ rằng dữ liệu không hoàn hảo làm AI trở nên vô dụng là một sai lầm. Các mô hình phân tích có thể hoạt động với dữ liệu không đầy đủ. Nhưng biết khi nào nên triển khai AI và khi nào dựa vào phán đoán của con người để điền vào chỗ trống mới là thử thách thực sự. Nếu không có sự giám sát cẩn thận này, AI có thể gây ra những rủi ro đáng kể.
Một vấn đề như vậy là thành kiến. Khi fintech huấn luyện AI dựa trên các bộ dữ liệu cũ, họ thường thừa hưởng những hạn chế đi kèm. Ví dụ, tên của khách hàng có thể vô tình trở thành đại diện cho giới tính, hoặc họ tên có thể suy ra về dân tộc, làm lệch điểm tín dụng theo cách mà không cơ quan quản lý nào chấp thuận. Những thành kiến này, dễ bị che giấu trong toán học, thường cần sự giám sát của con người để phát hiện và sửa chữa.
Khi các mô hình AI tiếp xúc với các tình huống mà chúng chưa được huấn luyện, điều này có thể gây ra dịch chuyển mô hình. Biến động thị trường, thay đổi quy định, hành vi khách hàng ngày càng phức tạp, và các biến động kinh tế vĩ mô đều có thể ảnh hưởng đến hiệu quả của mô hình mà không có sự giám sát và điều chỉnh của con người.
Việc điều chỉnh lại các thuật toán trở nên khó khăn hơn rõ rệt khi fintech sử dụng các hộp đen không cho phép nhìn thấy mối quan hệ giữa các biến. Trong điều kiện này, họ mất khả năng chuyển giao kiến thức đó cho các nhà ra quyết định trong quản lý. Thêm vào đó, lỗi và thành kiến vẫn ẩn trong các mô hình mập mờ, làm giảm độ tin cậy và khả năng tuân thủ.
Những điều các nhà lãnh đạo fintech cần biết
Một khảo sát của Deloitte cho thấy 80% cho biết hội đồng quản trị của họ có ít hoặc không có kinh nghiệm về AI. Nhưng các giám đốc cấp cao không thể coi AI là vấn đề của “nhóm kỹ thuật”. Trách nhiệm về AI nằm ở lãnh đạo, nghĩa là các nhà lãnh đạo fintech cần nâng cao kỹ năng.
Linh hoạt phân tích chéo
Trước khi triển khai AI, các nhà lãnh đạo fintech cần có khả năng chuyển đổi tư duy—nhìn vào các con số, lý do kinh doanh, hoạt động và đạo đức—và nhận diện cách các yếu tố này chồng chéo và ảnh hưởng đến kết quả của AI. Họ cần hiểu cách độ chính xác thống kê của mô hình liên quan đến rủi ro tín dụng. Và nhận biết khi một biến số trông có vẻ hợp lý về tài chính (như lịch sử trả nợ) có thể gây ra rủi ro xã hội hoặc quy định thông qua mối liên hệ với nhóm được bảo vệ, như tuổi tác hoặc dân tộc.
Sự thành thạo về AI này đến từ việc làm việc cùng các nhân viên tuân thủ để phân tích các quy định, trao đổi với quản lý sản phẩm về trải nghiệm người dùng, và xem xét kết quả mô hình cùng các nhà khoa học dữ liệu để phát hiện dấu hiệu dịch chuyển hoặc thành kiến.
Trong fintech, tránh rủi ro hoàn toàn là không thể, nhưng với khả năng phân tích chéo, các nhà lãnh đạo có thể xác định rõ những rủi ro đáng để chấp nhận và những rủi ro có thể làm giảm giá trị cổ đông. Kỹ năng này cũng giúp nâng cao khả năng phát hiện và hành động trước các thành kiến, không chỉ từ góc độ tuân thủ mà còn từ góc độ chiến lược và đạo đức.
Ví dụ, nếu một mô hình xếp hạng tín dụng dựa trên AI có xu hướng thiên về một nhóm khách hàng nhất định, việc sửa chữa sự mất cân bằng đó không chỉ là công việc của khoa học dữ liệu; nó còn bảo vệ uy tín của công ty. Đối với các fintech cam kết thúc đẩy tài chính toàn diện hoặc đối mặt với sự giám sát ESG, tuân thủ pháp luật đơn thuần là chưa đủ. Phán đoán nghĩa là biết điều đúng, chứ không chỉ là điều được phép.
Kiến thức về khả năng giải thích
Khả năng giải thích là nền tảng của sự tin tưởng. Nếu không có nó, các nhà ra quyết định, khách hàng và cơ quan quản lý sẽ đặt câu hỏi tại sao một mô hình lại đi đến kết luận cụ thể.
Điều đó có nghĩa là các giám đốc phải có khả năng phân biệt giữa các mô hình có thể giải thích được và những mô hình cần giải thích hậu kỳ (như giá trị SHAP hoặc LIME). Họ cần đặt câu hỏi khi logic của mô hình không rõ ràng và nhận biết khi “độ chính xác” đơn thuần không thể biện minh cho một quyết định hộp đen.
Thành kiến không xuất hiện từ hư không; nó phát sinh khi các mô hình được huấn luyện và triển khai mà không có sự giám sát đủ. Khả năng giải thích giúp các nhà lãnh đạo có khả năng phát hiện sớm các vấn đề này và hành động trước khi gây thiệt hại.
AI giống như chế độ tự lái trên máy bay. Phần lớn thời gian, nó hoạt động trơn tru, nhưng khi gặp bão, phi công phải kiểm soát. Trong tài chính, nguyên tắc tương tự cũng áp dụng. Các nhóm cần có khả năng dừng giao dịch, điều chỉnh chiến lược hoặc thậm chí rút khỏi một sản phẩm khi điều kiện thay đổi. Khả năng giải thích đi đôi với khả năng vượt quyền, đảm bảo các nhà lãnh đạo cấp cao hiểu AI và duy trì kiểm soát, ngay cả khi hoạt động ở quy mô lớn.
Tư duy mô hình xác suất
Các giám đốc quen với các quyết định xác định, như nếu điểm tín dụng dưới 650 thì từ chối hồ sơ. Nhưng AI không hoạt động theo cách đó và đây là một bước chuyển đổi tư duy lớn.
Đối với các nhà lãnh đạo, tư duy xác suất đòi hỏi ba khả năng:
Ví dụ, mô hình AI xác suất của fintech có thể cảnh báo khách hàng là rủi ro cao, nhưng điều đó không nhất thiết có nghĩa là “từ chối”. Nó có thể có nghĩa là “điều tra thêm” hoặc “điều chỉnh điều kiện vay”. Không có sự tinh tế này, tự động hóa có thể trở thành một công cụ thô sơ, làm giảm lòng tin của khách hàng và gây ra phản ứng từ cơ quan quản lý.
Tại sao lớp phán đoán sẽ quyết định thành công của fintech
Tương lai của fintech sẽ không được quyết định bởi ai có các mô hình AI mạnh nhất; mà bởi ai sử dụng chúng với khả năng phán đoán sắc bén nhất. Khi AI trở thành hàng hóa, các lợi ích về hiệu quả trở thành điều kiện tiên quyết. Điều phân biệt các người chiến thắng là khả năng can thiệp khi thuật toán gặp phải sự không chắc chắn, rủi ro và các vùng xám đạo đức.
Lớp phán đoán không phải là một ý tưởng trừu tượng. Nó thể hiện khi các giám đốc quyết định tạm dừng giao dịch tự động, trì hoãn ra mắt sản phẩm hoặc vượt quyền điểm rủi ro không phản ánh bối cảnh thực tế. Những khoảnh khắc này không phải là thất bại của AI; chúng là bằng chứng cho thấy sự giám sát của con người là dòng cuối cùng tạo ra giá trị.
Sự phù hợp chiến lược là nơi phán đoán trở thành phần cố định của tổ chức. Một chiến lược AI mạnh không chỉ thiết lập các lộ trình kỹ thuật; nó còn đảm bảo tổ chức xem xét lại các sáng kiến, nâng cấp năng lực AI của đội ngũ, đảm bảo công ty có kiến trúc dữ liệu phù hợp, và liên kết mọi triển khai với một kết quả kinh doanh rõ ràng. Trong ý nghĩa này, phán đoán không phải là một hoạt động theo từng đợt mà được tích hợp vào phương thức vận hành, giúp các nhà lãnh đạo thúc đẩy phong cách lãnh đạo dựa trên giá trị.
Các fintech cần những nhà lãnh đạo biết cách cân bằng AI để đạt tốc độ và quy mô, và con người để xử lý bối cảnh, sắc thái và tầm nhìn dài hạn. AI có thể phát hiện bất thường trong vài giây, nhưng chỉ con người mới có thể quyết định khi nào cần phản kháng lại toán học, xem xét lại giả định hoặc chấp nhận rủi ro táo bạo mở ra cơ hội tăng trưởng. Lớp phán đoán này chính là thứ biến AI từ một công cụ thành lợi thế cạnh tranh.
Về tác giả:
Guillermo Delgado là Nhà Lãnh đạo AI Toàn cầu của Nisum và COO của Deep Space Biology. Với hơn 25 năm kinh nghiệm trong lĩnh vực sinh hóa, trí tuệ nhân tạo, sinh học không gian và khởi nghiệp, ông phát triển các giải pháp sáng tạo vì lợi ích con người trên Trái đất và trong không gian.
Là một cố vấn chiến lược doanh nghiệp, ông đã góp phần vào tầm nhìn AI của NASA cho sinh học không gian và nhận giải thưởng sáng tạo. Ông có bằng Thạc sĩ Khoa học về Trí tuệ Nhân tạo từ Georgia Tech, đạt danh hiệu xuất sắc. Ngoài ra, với vai trò giảng viên đại học, ông đã giảng dạy các khóa học về máy học, dữ liệu lớn và khoa học gen.