Tuyên bố cũng mô tả hệ thống Lavender, xác định nó là cơ sở dữ liệu được sử dụng để “kiểm tra chéo các nguồn thông tin tình báo nhằm tạo ra lớp thông tin cập nhật về nhân sự hoạt động trong các hành động của tổ chức khủng bố. Đây không phải là danh sách quân nhân được xác định là đủ điều kiện mục tiêu… Hệ thống này chỉ là công cụ của nhà phân tích trong quá trình xác định mục tiêu”.
Trong những năm đầu hoạt động quân sự của IDF, việc xác định các mục tiêu con người thường là một quá trình tốn nhiều thời gian và công sức; việc quyết định chọn một cá nhân hoặc xác định đó là mục tiêu hợp pháp đều phải qua thảo luận và được các cố vấn pháp lý thông qua. Tuy nhiên, sau ngày 7/10/2023, kiểu trừng phạt nhắm mục tiêu vào con người này đã tăng tốc đáng kể. Khi các cuộc bắn phá của IDF vào Gaza ngày càng gia tăng, các chỉ huy liên tục yêu cầu xác định mục tiêu.
Để đáp ứng yêu cầu này, IDF bắt đầu dựa chủ yếu vào hệ thống Lavender để tạo ra cơ sở dữ liệu về các cá nhân được đánh giá là có đặc điểm của các chiến binh Thánh chiến Hồi giáo hoặc Hamas.
Thông tin chi tiết về các loại dữ liệu cụ thể được sử dụng để huấn luyện thuật toán Lavender hoặc cách chương trình đưa ra kết luận, không được đưa vào bài báo. Tuy nhiên, các nguồn tin cho rằng trong những tuần đầu tiên của cuộc chiến, Biệt đội 8200 đã cải tiến thuật toán của hệ thống “Lavender” và điều chỉnh các tham số tìm kiếm.
Nguồn tin cho biết, sau khi lấy mẫu ngẫu nhiên và kiểm tra chéo các dự đoán của mình, đơn vị này kết luận “hệ thống Lavender chính xác đến 90%”, khiến IDF phê duyệt sử dụng nó làm công cụ đề xuất mục tiêu. Họ nói thêm rằng hệ thống Lavender đã tạo ra một cơ sở dữ liệu gồm hàng chục nghìn người được coi là thành viên cấp thấp trong cánh quân sự của Hamas. Cơ sở dữ liệu được sử dụng cùng với một hệ thống AI hỗ trợ khác có tên là Gospel khuyến nghị nhắm mục tiêu vào các tòa nhà thay vì cá nhân.
Một trong những nguồn tin cho biết: “Vào lúc cao điểm, hệ thống Lavender đã coi 37.000 người là mục tiêu tiềm năng. Nhưng các con số liên tục thay đổi, tùy thuộc vào việc định nghĩa các chiến binh Hamas”.
Những người bảo vệ việc sử dụng hệ thống Lavender để giúp xác định các mục tiêu cấp thấp, cho rằng: “Khi nói đến các chiến binh cấp thấp, không cần đầu tư nhân lực và thời gian”. Họ nói IDF sẵn sàng chấp nhận rủi ro khi sử dụng AI, gây ra thiệt hại tài sản và thương vong cho dân thường, mạo hiểm tấn công sai và chấp nhận lỗi đó.
Những điều được tiết lộ trong bài báo trên “+972” và “Local Call” có thể là lời giải thích tại sao các lực lượng quân sự kiểu phương Tây của IDF với khả năng tấn công có độ chính xác cao đã phát động các cuộc tấn công dẫn đến thương vong lớn cho dân thường.