Sự trỗi dậy của các mô hình định giá tự động (Automated
Valuation Models - AVMs) dựa trên trí tuệ nhân tạo (AI) và Big Data đang tạo
ra một cuộc cách mạng trong lĩnh vực thẩm định giá. Tuy nhiên, việc đưa thuật
toán vào quy trình pháp lý mở ra những cuộc tranh luận gay gắt về bản chất của
"nghề thẩm định" và trách nhiệm pháp lý.
Dưới đây là luận giải chi tiết dưới góc độ chuyên môn
và luật học:
1. Khả năng thay thế con người của AVMs: Hỗ trợ hay
Thay thế?
Về mặt lý luận, AVMs sở hữu những ưu thế vượt trội
nhưng cũng có những "điểm mù" mà trí tuệ con người vẫn là duy nhất:
- Ưu thế của AVMs (Tính hiệu quả):
- Tốc độ và quy mô: Xử lý hàng
triệu dữ liệu trong vài giây, điều mà một nhóm thẩm định viên (TĐV) phải
mất hàng tuần.
- Loại bỏ định kiến chủ quan: Thuật toán
không bị ảnh hưởng bởi tâm lý, áp lực từ khách hàng hay sự mệt mỏi, đảm bảo
tính nhất quán (Consistency).
- Phát hiện xu hướng ẩn: AI có thể
tìm ra mối tương quan phi tuyến tính giữa các yếu tố (như ảnh hưởng của
tiếng ồn đô thị hoặc mật độ cây xanh) đến giá đất mà con người khó định
lượng.
- Giới hạn của AVMs (Tính nhân văn và bối cảnh):
- Dữ liệu "bẩn" và sai lệch: AVMs hoạt động theo nguyên tắc "Garbage in, Garbage
out". Nếu dữ liệu đầu vào (hợp đồng mua bán, giá đăng tin) không
trung thực, thuật toán sẽ khuếch đại sai số.
- Yếu tố phi vật thể và bất thường: AI khó có thể đánh giá đúng giá trị của một ngôi nhà có "vấn
đề tâm linh", một tác phẩm nghệ thuật gây tranh cãi hoặc những biến
động chính trị cục bộ chưa được số hóa.
- Sự thiếu hụt về đạo đức nghề nghiệp: AI không có "lương tâm" để từ chối một yêu cầu định giá
phi lý mang tính trục lợi.
=> Kết luận: Trong tương lai gần,
AVMs sẽ thay thế con người ở phân khúc tài sản tiêu chuẩn (như căn hộ
chung cư, xe cộ, cổ phiếu niêm yết). Tuy nhiên, với các tài sản phức tạp,
chuyên sâu hoặc trong các tranh chấp pháp lý cần sự giải trình, con người vẫn
đóng vai trò là "người kiểm chứng cuối cùng" (Human-in-the-loop).
2. Góc độ Luật học: Ai chịu trách nhiệm khi thuật toán
sai?
Đây là vấn đề cốt lõi trong chính sách pháp luật. Khi
một con số sai lệch gây thiệt hại hàng tỷ đồng, chúng ta không thể "bỏ
tù" một thuật toán. Các học thuyết luật học hiện đại đang xoay quanh 3 mô
hình trách nhiệm:
A. Mô hình Trách nhiệm của Người sử dụng (Thẩm định
viên/Doanh nghiệp)
Đây là quan điểm phổ biến nhất hiện nay tại Việt Nam
và nhiều nước.
- Lý luận: AVMs chỉ được coi là một công cụ (giống
như chiếc máy tính bỏ túi). TĐV là người cuối cùng ký tên vào Chứng thư thẩm
định giá.
- Hệ quả pháp lý: TĐV phải chịu trách nhiệm
về kết quả cuối cùng. Nếu thuật toán sai mà TĐV không phát hiện ra, đó bị
coi là lỗi "thiếu trách nhiệm" hoặc "năng lực kém".
TĐV không được lấy lý do "tại phần mềm" để miễn trừ trách nhiệm.
B. Mô hình Trách nhiệm sản phẩm (Nhà phát triển phần mềm)
Nếu lỗi không nằm ở dữ liệu đầu vào mà nằm ở lỗi
thuật toán (bugs) hoặc thiết kế mô hình sai lệch có hệ thống.
- Lý luận: AVMs là một sản phẩm thương mại. Nhà sản xuất phải
bảo đảm sản phẩm hoạt động đúng công năng.
- Hệ quả pháp lý: Nếu chứng minh được sai
lệch do lỗi lập trình hoặc che giấu rủi ro của thuật toán, ngân hàng hoặc
khách hàng có thể kiện đơn vị cung cấp giải pháp AVMs theo Luật Bảo vệ quyền
lợi người tiêu dùng hoặc các quy định về trách nhiệm sản phẩm.
C. Mô hình "Hộp đen" và Trách nhiệm nghiêm
minh (Strict Liability)
Trong kỷ nguyên AI phức tạp, đôi khi chúng ta không thể
giải thích tại sao AI đưa ra con số đó (Black box).
- Lý luận: Các thực thể sử dụng AI để tạo ra lợi nhuận từ
các hoạt động rủi ro cao phải chịu trách nhiệm cho mọi thiệt hại phát
sinh, bất kể có lỗi hay không.
- Hệ quả pháp lý: Doanh nghiệp thẩm định
giá phải mua bảo hiểm trách nhiệm nghề nghiệp bắt buộc ở mức cao hơn khi sử
dụng AVMs để đảm bảo nguồn tài chính bồi thường cho bên thứ ba.
3. Khuyến nghị cho bài nghiên cứu của bạn
Trong báo cáo nghiên cứu cao học về Chính sách hình sự,
bạn có thể phân tích thêm:
1. Tính giải trình (Explainability): Pháp luật cần bắt
buộc các báo cáo dùng AVMs phải giải trình được logic của thuật toán để đảm bảo
tính chứng cứ tại Tòa.
2. Tiêu chuẩn hóa AVMs: Cần đưa các quy định về kiểm
định chất lượng thuật toán định giá vào Hệ thống tiêu chuẩn thẩm định giá Việt
Nam.
3. Cá nhân hóa trách nhiệm: Dù dùng công nghệ
gì, phải luôn có một thể nhân (thẩm định viên) chịu trách nhiệm xác nhận cuối
cùng để duy trì tính răn đe của luật hình sự.
Lý luận về trách nhiệm pháp lý đối với AI là một đề
tài rất thời thượng và có chiều sâu cho báo cáo của bạn. Bạn có định đưa phần
so sánh với luật quốc tế (như Đạo luật AI của EU) vào bài nghiên cứu không?
Không có nhận xét nào:
Đăng nhận xét