PsyGuild
NGHIÊN CỨU

Ranh giới sử dụng AI có ích cho con người

Ranh giới sử dụng AI có ích cho con người

 

Giữa tăng cường và bào mòn: Ranh giới sử dụng AI có ích cho con người

Một bài viết phân tích khoa học về ranh giới giữa việc AI giúp con người nâng cao năng lực và việc AI làm suy giảm năng lực thực tế, kèm định hướng sử dụng AI theo hướng lành mạnh, có kiểm soát và có ích.

Chủ đề: Ranh giới và so sánh giữa hai thái cực trong cách nhìn về AI
Trọng tâm: AI tăng cường năng lực hay tạo ảo tưởng năng lực?
Định hướng: Viết theo ngôn ngữ phổ thông, luận điểm chặt chẽ, có dẫn nguồn APA và link chính xác

Tranh luận về trí tuệ nhân tạo hiện nay thường rơi vào hai cực đối lập. Một bên cho rằng AI là công cụ mở rộng năng lực, giúp con người học nhanh hơn, làm việc tốt hơn và ra quyết định hiệu quả hơn. Bên còn lại cảnh báo AI khiến con người lười tư duy, phụ thuộc vào máy, suy giảm kỹ năng thực tế và sống trong cảm giác “mình biết, mình giỏi” dù phần lớn đầu ra được tạo bởi hệ thống tự động. Vấn đề là: cả hai cách nhìn này đều chứa phần đúng, nhưng sẽ sai nếu bị đẩy thành tuyệt đối. Câu hỏi khoa học không phải là “AI tốt hay xấu”, mà là AI can thiệp vào phần nào của hoạt động con người, bằng cơ chế nào, và trong điều kiện nào thì nó giúp tăng cường năng lực thay vì bào mòn năng lực.

1. Bản chất của tranh luận: tăng cường hay thay thế

Điểm xuất phát quan trọng nhất để hiểu vấn đề này là phải tách bạch hai khái niệm thường bị gộp vào nhau: nâng hiệu suấtphát triển năng lực. Một người có thể làm việc nhanh hơn nhờ AI, nhưng điều đó không tự động có nghĩa là họ giỏi hơn nếu không có AI. Nói cách khác, hiệu quả đầu ra và năng lực nội tại không phải lúc nào cũng đi cùng nhau.

Từ rất sớm, Parasuraman và Riley (1997) đã chỉ ra rằng công nghệ tự động hóa không chỉ tạo ra lợi ích, mà còn kéo theo bốn trạng thái cần phân biệt: sử dụng phù hợp, lạm dụng vì tin tưởng quá mức, bỏ dùng vì thiếu tin tưởng, và sử dụng sai do thiết kế hoặc tổ chức không phù hợp. Khung này vẫn còn rất giá trị trong thời đại AI, vì nó cho thấy rủi ro không nằm ở bản thân công nghệ một cách trừu tượng, mà nằm ở mối quan hệ giữa con người – công cụ – bối cảnh sử dụng.

Luận điểm cốt lõi: AI có ích khi nó đóng vai trò tăng cường (augmentation), nhưng dễ gây hại khi nó âm thầm chuyển sang vai trò thay thế (substitution) những quá trình nhận thức vốn là nơi con người hình thành kỹ năng thật.

Risko và Gilbert (2016) gọi hiện tượng chuyển một phần gánh nặng tư duy sang công cụ bên ngoài là cognitive offloading – “dỡ tải nhận thức”. Về bản chất, đây không phải điều tiêu cực. Con người từ lâu đã dùng sổ tay, lịch, bản đồ, máy tính và công cụ tìm kiếm để giảm tải trí nhớ hay thao tác tính toán. Tuy nhiên, vấn đề bắt đầu khi việc dỡ tải không chỉ giúp tiết kiệm sức lực tạm thời, mà còn làm giảm luôn cơ hội luyện tập những tiến trình tạo nên năng lực bền vững như ghi nhớ, suy luận, kiểm tra sai số, hay tự giám sát mức độ hiểu biết của mình.

2. Khi nào AI thực sự có ích cho con người

Bằng chứng thực nghiệm hiện nay cho thấy AI có thể mang lại lợi ích rõ rệt trong nhiều nhiệm vụ, đặc biệt là các công việc có cấu trúc hoặc bán cấu trúc. Noy và Zhang (2023) cho thấy trong các tác vụ viết tiêu chuẩn, người dùng GenAI hoàn thành nhanh hơn và chất lượng đầu ra tốt hơn. Trong môi trường doanh nghiệp, Brynjolfsson, Li và Raymond (2025) ghi nhận AI hỗ trợ giúp tăng năng suất của nhân viên chăm sóc khách hàng, đặc biệt có lợi cho những người ít kinh nghiệm hơn. Điều này cho thấy AI có thể đóng vai trò như một dạng “giàn giáo nhận thức”, giúp người mới tiếp cận chuẩn mực làm việc của người giỏi nhanh hơn.

Trong giáo dục, AI cũng không phải lúc nào cũng gây hại. Khi được thiết kế như một công cụ dạy học có cấu trúc – tức là giải thích, đặt câu hỏi gợi mở, cung cấp phản hồi theo từng bước, thay vì chỉ đưa đáp án – nó có thể hỗ trợ học tập hiệu quả. Kestin và cộng sự (2025) cho thấy AI tutor được thiết kế theo nguyên tắc sư phạm phù hợp có thể cải thiện việc học trong bối cảnh thực tế. Điều quan trọng ở đây không nằm ở việc “dùng AI hay không”, mà nằm ở việc AI đang hoạt động theo chế độ trả lời thay hay chế độ hướng dẫn để người học tự hiểu.

Trong các lĩnh vực chuyên môn như y khoa hay sản xuất, AI còn có thể đóng vai trò như hệ thống hỗ trợ ra quyết định. Senoner và cộng sự (2024) cho thấy AI có khả năng giải thích trực quan giúp chuyên gia phối hợp tốt hơn so với AI “hộp đen”. Khi công cụ không chỉ đưa ra kết luận, mà còn cho thấy lý do hoặc vùng thông tin liên quan, con người có điều kiện đối chiếu, phản biện và điều chỉnh niềm tin của mình tốt hơn.

Nói ngắn gọn, AI có ích khi nó không làm thay toàn bộ tư duy, mà giúp con người nhìn rõ hơn, phản hồi nhanh hơn, giảm việc lặp lại và giữ được quyền kiểm tra cuối cùng.

3. Khi nào AI làm con người mất dần năng lực thực tế

Phía còn lại của tranh luận cũng có cơ sở khoa học rõ ràng. Nguy cơ của AI không nhất thiết xuất hiện ngay như một sự “ngu đi” thấy rõ, mà thường diễn ra tinh vi hơn: giảm nỗ lực tư duy, giảm khả năng tự kiểm tra, tăng xu hướng tin vào câu trả lời trơn tru, và dần dần làm mòn kỹ năng nền tảng.

Một tiền đề quan trọng cho hiện tượng này đã được Sparrow, Liu và Wegner (2011) chỉ ra qua “Google effect on memory”: khi con người tin rằng thông tin luôn có thể tra lại được, họ có xu hướng nhớ nơi tìm thông tin hơn là nhớ chính nội dung thông tin. Trong thời đại GenAI, vấn đề còn mạnh hơn, vì AI không chỉ lưu và truy xuất dữ liệu, mà còn trình bày câu trả lời rất lưu loát, khiến người dùng dễ nhầm lẫn giữa “mình hiểu” với “mình vừa đọc một câu trả lời nghe có vẻ hợp lý”.

Lee và cộng sự (2025) cho thấy trong nhóm lao động tri thức, người càng tin vào GenAI thì càng tự báo cáo mức giảm nỗ lực tư duy phản biện. Điều đáng lưu ý là ở đây hiệu quả công việc có thể vẫn tăng, nhưng cái giảm đi là quá trình tư duy mà lẽ ra người dùng phải vận hành để hình thành phán đoán độc lập. Fernandes và cộng sự (2026) còn cho thấy một hiện tượng rất đáng chú ý: AI có thể làm người dùng đạt thành tích tốt hơn trong nhiệm vụ suy luận, nhưng lại khiến họ đánh giá quá cao năng lực của chính mình. Đây là dạng “ảo tưởng năng lực” đặc biệt nguy hiểm, vì con người không chỉ phụ thuộc vào công cụ, mà còn không nhận ra mức độ phụ thuộc đó.

Trong những môi trường rủi ro cao, hậu quả có thể nghiêm trọng hơn. Kiani và cộng sự (2020) cho thấy AI trong chẩn đoán mô bệnh học có thể giúp ở một số trường hợp, nhưng nếu AI sai thì người dùng cũng dễ bị kéo lệch theo. Dratsch và cộng sự (2023) ghi nhận thiên lệch tự động hóa (automation bias) trong đọc nhũ ảnh: khi AI đưa gợi ý sai, cả người ít kinh nghiệm lẫn người có kinh nghiệm đều có thể bị ảnh hưởng. Điều này cho thấy AI không chỉ “giúp nhanh hơn”; nó còn có thể can thiệp trực tiếp vào niềm tin và phán đoán của con người.

Bạn yêu vì bạn cần người đó hay bạn cần người đó vì bạn yêu?

4. Ranh giới giữa hỗ trợ và gây ảo tưởng năng lực

Từ các bằng chứng trên, có thể xác định một ranh giới rất rõ: AI bắt đầu gây hại khi nó không còn là công cụ hỗ trợ cho tư duy, mà trở thành vật thay thế cho những hoạt động vốn là nơi năng lực con người được hình thành. Đây chính là ranh giới giữa hỗ trợ thật và ảo tưởng năng lực.

Khía cạnhAI tăng cường năng lựcAI làm suy giảm năng lực
Vai trò của AIGợi ý, phản hồi, mở rộng góc nhìn, hỗ trợ kiểm traTrả lời thay, quyết định thay, viết thay, nghĩ thay
Vai trò của con ngườiVẫn phải so sánh, giải thích, kiểm chứng và chịu trách nhiệmChỉ sao chép, chấp nhận nhanh, ít kiểm tra
Ảnh hưởng ngắn hạnTăng tốc độ và hiệu quảTăng tốc độ nhưng giảm nỗ lực nhận thức
Ảnh hưởng dài hạnCó thể giúp học nhanh hơn nếu có cấu trúc sư phạm và phản hồiDễ gây deskilling, automation bias, lệch tự đánh giá
Cảm giác chủ quanTự tin có kiểm soátTự tin quá mức, tưởng mình hiểu sâu hơn thực tế

Như vậy, không nên nói đơn giản rằng “AI làm con người ngu đi” hay “AI giúp con người mạnh lên”. Câu đúng hơn là: AI khuếch đại cách con người sử dụng nó. Nếu AI được dùng như một công cụ buộc con người tiếp tục suy nghĩ, nó có thể nâng đỡ năng lực. Nếu AI được dùng như con đường tắt để né tránh nỗ lực nhận thức, nó sẽ dần làm mòn các mắt xích của năng lực thật.

5. Phương pháp sử dụng AI có ích cho con người

Từ góc nhìn ứng dụng, câu hỏi thiết thực nhất không phải là có nên dùng AI hay không, mà là dùng AI theo phương pháp nào để nó phục vụ sự phát triển của con người thay vì thay thế con người. Dưới đây là những nguyên tắc thực hành có nền tảng khoa học tương đối vững.

5.1. Dùng AI để tạo nháp, không dùng AI để giao luôn phán đoán cuối

AI nên được xem như người hỗ trợ ban đầu: gợi ý dàn ý, tổng hợp thông tin, đề xuất phương án, chỉ ra điểm mù. Nhưng quyết định cuối, diễn giải cuối, hoặc kết luận cuối cần do con người kiểm tra và chịu trách nhiệm. Nguyên tắc này đặc biệt quan trọng trong học tập, nghề chuyên môn và các quyết định có hệ quả lớn.

5.2. Buộc bản thân giải thích lại bằng ngôn ngữ của mình

Nếu sau khi dùng AI, người dùng không thể tự nói lại, tự viết lại hoặc tự bảo vệ kết luận bằng lời của mình, thì khả năng cao là họ mới sở hữu đầu ra, chứ chưa sở hữu năng lực. Đây là một tiêu chuẩn đơn giản nhưng rất mạnh để phân biệt hiểu thật và mượn hiểu.

5.3. Duy trì thời gian “không AI” để bảo toàn kỹ năng nền

Một số kỹ năng cốt lõi cần được rèn mà không phụ thuộc vào công cụ, nhất là viết lập luận, đọc hiểu sâu, phân tích số liệu, chẩn đoán, giải quyết vấn đề và tư duy phản biện. Nếu toàn bộ quá trình học hoặc làm đều được “bọc đệm” bằng AI, kỹ năng nền sẽ yếu đi dù đầu ra trước mắt có vẻ đẹp hơn.

5.4. Ưu tiên “tutor mode” thay vì “answer mode”

Trong giáo dục và tự học, nên yêu cầu AI giải thích từng bước, đặt câu hỏi phản biện, gợi ý khung suy nghĩ, hoặc chỉ ra lỗi trong lập luận của người dùng. Cách này buộc người học tham gia vào quá trình nhận thức. Ngược lại, nếu AI chỉ đưa đáp án hoàn chỉnh, người dùng rất dễ tiêu thụ thụ động.

5.5. Kiểm tra độ tin cậy và mức bất định

AI rất mạnh ở việc tạo ra câu trả lời mạch lạc, nhưng sự mạch lạc không đồng nghĩa với sự đúng đắn. Vì vậy, cần hình thành thói quen kiểm tra nguồn, đối chiếu ít nhất một lần với tài liệu gốc, và đặc biệt cảnh giác trong các tình huống AI trả lời quá tự tin về vấn đề phức tạp.

5.6. Học đồng thời AI literacy và metacognitive literacy

Biết cách dùng AI vẫn chưa đủ. Con người còn cần biết cách quan sát chính mình khi dùng AI: khi nào mình đang tiết kiệm thời gian hợp lý, khi nào mình đang né tránh tư duy, khi nào mình đang tin quá nhanh vào một câu trả lời nghe “rất đúng”. Đây là năng lực siêu nhận thức – yếu tố then chốt để không bị AI dẫn dắt một cách vô thức.

Tóm tắt phương pháp tốt:

  • Dùng AI để hỗ trợ, không giao trọn tư duy cho AI.
  • Luôn có bước kiểm tra độc lập của con người.
  • Giữ các buổi luyện tập không có AI để bảo toàn kỹ năng nền.
  • Biến AI thành người hướng dẫn gợi mở, không phải máy trả bài hộ.
  • Rèn khả năng nhận ra lúc mình đang bị “ảo tưởng đã hiểu”.

6. Kết luận

Ranh giới giữa hai thái cực trong tranh luận về AI không nằm ở câu hỏi “AI tốt hay xấu”, mà nằm ở câu hỏi AI đang thay thế điều gì trong con người. Nếu AI thay phần việc lặp lại, mở rộng quan sát, hỗ trợ phản hồi và vẫn giữ con người ở vị trí kiểm tra, đối chiếu và chịu trách nhiệm, nó là công nghệ tăng cường. Nhưng nếu AI thay luôn phần tư duy vốn tạo ra kỹ năng, làm giảm effort nhận thức, làm lệch tự đánh giá và khiến con người quen sống bằng đầu ra có sẵn, nó sẽ trở thành công nghệ bào mòn.

Vì vậy, phương pháp sử dụng AI có ích cho con người không phải là dùng thật nhiều, cũng không phải là từ chối hoàn toàn, mà là dùng có nguyên tắc: giữ AI ở vai trò công cụ hỗ trợ, giữ con người ở vai trò chủ thể suy nghĩ. Chỉ khi đó, AI mới thật sự phục vụ sự phát triển của con người thay vì tạo ra một thế hệ có vẻ hiệu quả hơn nhưng lại yếu hơn về năng lực thực tế.

7. Tài liệu tham khảo APA

  1. Brynjolfsson, E., Li, D., & Raymond, L. R. (2025). Generative AI at work. The Quarterly Journal of Economics, 140(2), 889–942.
    https://academic.oup.com/qje/article/140/2/889/7990658
  2. Dratsch, T., Chen, X., Mehrizi, M. R., Kloeckner, R., Mähringer-Kunz, A., Püsken, M., Baeßler, B., Sauer, S., Maintz, D., & dos Santos, D. P. (2023). Automation bias in mammography: The impact of artificial intelligence BI-RADS suggestions on reader performance. Radiology, 307(4), e222176.
    https://doi.org/10.1148/radiol.222176
  3. Fernandes, D., Villa, S., Nicholls, S., Haavisto, O., Buschek, D., Schmidt, A., Kosch, T., Shen, C., & Welsch, R. (2026). AI makes you smarter but none the wiser: The disconnect between performance and metacognition. Computers in Human Behavior, 175, 108779.
    https://doi.org/10.1016/j.chb.2025.108779
  4. Kestin, G., Miller, K., Safdari, M., Mills, K., Kestin, B. A., Tsiotis, A., & others. (2025). AI tutoring outperforms in-class active learning: An RCT introducing a novel research-based design in an authentic educational setting. Scientific Reports, 15, Article 97652.
    https://doi.org/10.1038/s41598-025-97652-6
  5. Kiani, A., Uyumazturk, B., Rajpurkar, P., Wang, A., Gao, R., Jones, E., Langlotz, C. P., Ball, R. L., Montine, K. S., Martin, B., & others. (2020). Impact of a deep learning assistant on the histopathologic classification of liver cancer. npj Digital Medicine, 3, 23.
    https://doi.org/10.1038/s41746-020-0232-8
  6. Lee, H.-P. H., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems.
    https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/
  7. Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science.
    https://doi.org/10.1126/science.adh2586
  8. Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39(2), 230–253.
    https://doi.org/10.1518/001872097778543886
  9. Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688.
    https://doi.org/10.1016/j.tics.2016.07.002
  10. Senoner, J., Schallmoser, S., Kratzwald, B., Feuerriegel, S., & Netland, T. (2024). Explainable AI improves task performance in human-AI collaboration. Scientific Reports, 14, 31150.
    https://doi.org/10.1038/s41598-024-82501-9
  11. Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778.
    https://doi.org/10.1126/science.1207745
  12. UNESCO. (2023). Guidance for generative AI in education and research. Paris: UNESCO.
    https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research
  13. World Health Organization. (2021). Ethics and governance of artificial intelligence for health. Geneva: WHO.
    https://www.who.int/publications/i/item/9789240029200

Khám phá thêm kiến thức tại PsyGuild

Cộng đồng tâm lý học — nơi tư duy gặp gỡ chiều sâu.

Đọc thêm bài viết