Sự phát triển của AI hứa hẹn cách mạng hóa việc viết code, nhưng việc sử dụng thiếu hiểu biết có thể gây ra hậu quả nghiêm trọng.
Theo chia sẻ của Simon Hettrick, Giám đốc Nhóm Phần mềm Nghiên cứu của Đại học Southampton, nhiều nhà nghiên cứu hiện đang sử dụng AI để viết mã vượt quá khả năng hiểu của họ, dẫn đến những sai sót tiềm ẩn trong quá trình nghiên cứu.
Trong nghiên cứu, phần mềm đóng vai trò quan trọng, với hơn một nửa các nhà nghiên cứu tại Anh tự viết mã cho công việc của mình. Công cụ như ChatGPT hay GitHub Copilot không chỉ giúp lập trình nhanh chóng, mà còn có thể thêm bình luận vào các đoạn để hướng dẫn người đọc, đảm bảo dữ liệu được xử lý phù hợp – điều này rất hữu dụng cho những nhà phát triển mới vào ngành. Tuy nhiên, những đoạn code của AI phụ thuộc nhiều vào cách hiểu về “viết mã”.
Nếu được yêu cầu, AI có thể dễ dàng tạo ra một hàm đơn giản trong Python (một ngôn ngữ lập trình phổ biến trong nghiên cứu) để tạo, ví dụ, một dãy Fibonacci, hoặc trong Fortran, C++, Cobol hoặc các ngôn ngữ tối nghĩa hơn.
Hettrick đã thử sử dụng phiên bản miễn phí của ChatGPT cho một dự án cá nhân về thu thập dữ liệu từ các trang tuyển dụng. Kết quả mặc dù không hoàn hảo, nhưng AI đã xử lý khá tốt nhiệm vụ này và có những điểm cải tiến so với phương pháp ban đầu của ông. Tuy vậy, AI chưa đủ khả năng thực hiện những nhiệm vụ phức tạp hơn mà không cần người dùng chia nhỏ thành các bước.
Ngoài khả năng hỗ trợ lập trình, AI nổi bật hơn trong việc đưa ra lời khuyên hữu ích về các kỹ thuật kỹ thuật phần mềm cho nghiên cứu, thậm chí đưa ra các gợi ý khách quan về ngôn ngữ lập trình phù hợp nhất cho từng nhu cầu nghiên cứu. Một nghiên cứu gần đây do GitHub tài trợ cho thấy 88% người dùng Copilot báo cáo rằng AI giúp họ làm việc hiệu quả hơn.
Bên cạnh đó, Hettrick đồng thời cảnh báo về nguy cơ khi AI được sử dụng mà không có sự hiểu biết cơ bản về mã do nó tạo ra.
Ông cho rằng nhiều người, nhất là những lập trình viên mới, thường cho rằng mã chỉ cần chạy được là đã đúng, trong khi điều này không phải lúc nào cũng chính xác. AI, dù có khả năng tạo ra mã chạy được, lại không kiểm soát chặt chẽ tính an toàn hay chính xác của mã.
Ví dụ, ChatGPT sẵn sàng viết mã để phân tích dấu hiệu bất thường của máy đo nhịp tim hoặc hệ thống điều khiển không lưu. Và nó cũng sẵn sàng tạo mã cho việc nhận dạng mục tiêu con người. Sự thiếu kiểm soát này đe dọa tính chính xác và độ tin cậy của các kết quả nghiên cứu.
Câu hỏi đặt ra không phải là công nghệ AI có nên được sử dụng hay không, mà là cách thức và văn hóa trong nghiên cứu sẽ thích nghi ra sao với công cụ mới này. Nghiên cứu hiện vẫn tập trung nhiều vào kết quả mà ít chú trọng đến quy trình. Nếu muốn AI thực sự hỗ trợ và phát triển khoa học, các nhà nghiên cứu cần đặt trọng tâm vào việc tạo ra các kết quả đáng tin cậy và có thể tái lập.
Việc áp dụng AI trong lập trình là một bước tiến, nhưng cần cẩn trọng để tránh những hệ quả tiêu cực tiềm ẩn trong lĩnh vực nghiên cứu khoa học.