logo
Men for what watch? Watch, watch and call. A tool that is used for timing on breitling replica the wrist. Men wear watches what kind, starting from the basic color and size, have their own right watches, you can follow the watch's color, shape, value, occasions to carefully match their own clothing. For the choice of rolex replica a watch, the first to look at and their identity are consistent with a rural old people wear watches, a bit unrealistic, even if there is, it would have been too ostentatious. A Multi Millionaire owner, wearing a few hundred dollars of high imitation table also lost their identity, and even make friends on their own business is not good. In the formal social occasions, watches are often regarded as jewelry, for usually only ring a jewelry can be worn by rolex replica uk men is respected. Some people even stressed that: "the watch is not only a man's jewelry, but also men's most important jewelry." In western countries, watches, pens, lighters was once known as adult men "three treasures", is every man even for a moment can not be away from the body.

Chào mừng các bạn! Mong bạn Đăng nhập. Xin lỗi bạn, tạm dừng việc đăng ký mới.►Nhấn hình ảnh nhỏ sẽ hiện ảnh lớn ‹(•¿•)›

Thông báo

Icon
Error

Tùy chọn
Xem bài viết cuối Go to first unread
song  
#1 Đã gửi : 13/09/2024 lúc 09:11:59(UTC)
song

Danh hiệu: Moderate

Nhóm: Registered
Gia nhập: 21-02-2012(UTC)
Bài viết: 24,173

Cảm ơn: 1 lần
Được cảm ơn: 2 lần trong 2 bài viết
Tin giả là chuyện có từ rất xa xưa. Quốc gia nào cũng có tin giả từ nhiều ngàn năm trước. Tin giả trong khung cảnh thơ mộng sẽ là truyện cổ tích cho trẻ em, trong môi trường chiến tranh sẽ là chư thần báo mộng cho Tướng Lý Thường Kiệt về chiến thắng ở phòng thuyến Sông Như Nguyệt… Tới thời có mạng xã hội là bùng nổ tin giả khắp các mùa bầu cử. Bây giờ có trí tuệ nhân tạo AI, cũng có nhiều khi AI lại phun ra tin giả. Hãy cảnh giác.


Trong cộng đồng gốc Á, chuyện tin giả cũng xảy ra thường trực. Một bài viết của phóng viên Bridget Chan ngày 7 tháng 5/2024 nhan đề “Asian and American: Navigating Dual Identities in the Digital Age” cho biết cộng đồng Mỹ gốc Á trong mùa bầu cử năm 2024 hứng chịu nhiều tin giả.


Bài viết có đoạn ghi nhận: “Đối với người Mỹ gốc Á và những người Mỹ da màu khác trong năm bầu cử này, những nỗ lực nhắm vào cộng đồng của họ bằng thông tin sai lệch đã và đang được tiến hành và tăng tràn ngập. Và những mối đe dọa này sẽ chỉ phát triển về mức độ phức tạp và tần suất trong thời đại AI. Việc ưu tiên vào lòng tin và sự an toàn của các nhóm AAPI (Mỹ gốc Á và gốc Thái Bình Dương)—và nỗ lực phá vỡ các câu chuyện phân biệt chủng tộc có hại bắt nguồn từ "mối đe dọa từ Trung Quốc"—sẽ là tối quan trọng để đảm bảo an toàn cho chúng ta. Nhiều cuộc sống của người AAPI bị chia cắt giữa các mối quan hệ cá nhân, văn hóa và chính trị ảnh hưởng đến cách chúng ta quyết định tương tác với thế giới, cả trực tuyến và ngoại tuyến. An ninh mạng, quyền riêng tư dữ liệu và an ninh vật lý của chúng ta sẽ phụ thuộc vào chính phủ và các công ty công nghệ lớn của chúng ta chấp nhận thực tế rằng việc bảo vệ cá nhân đòi hỏi nhiều hơn một giải pháp "một kích thước phù hợp với tất cả"….”


Nghe là sợ tin giả rồi. Do vậy, khi chúng ta sử dụng AI, cũng cần kiểm chứng nơi nguồn khác. Một bản tin của thông tấn AP ngày 24/5/2024 làm chúng ta giựt mình với nhan đề “Cats on the moon? Google’s AI tool is producing misleading responses that have experts worried” – tức là: Những con mèo trên mặt trăng? Công cụ AI của Google đang tạo ra những phản hồi gây hiểu lầm khiến các chuyên gia lo ngại.


Bản tin AP của hai phóng viên Matt O’Brien và Ali Swenson ghi lại các câu trả lời kỳ dị: bạn sẽ thấy AI của Google trả lời rằng mèo đã từng ở trên mặt trăng. Bản tin dịch toàn văn như sau.


Hãy hỏi Google xem mèo đã từng ở trên mặt trăng chưa và trước đây nó vẫn thường đưa ra danh sách xếp hạng các trang web để bạn có thể tự mình khám phá câu trả lời. Giờ đây, nó đưa ra câu trả lời ngay lập tức do trí tuệ nhân tạo đưa ra -- có thể đúng hoặc không. "Có, các phi hành gia đã gặp mèo trên mặt trăng, đã chơi với chúng và đã chăm sóc chúng", theo câu trả lời từ công cụ tìm kiếm mới được thiết kế lại của Google cho biết khi trả lời một câu hỏi của phóng viên Associated Press.


AI lại viết thêm: "Ví dụ, Neil Armstrong đã nói, 'Một bước nhỏ của con người' vì đó là bước chân của một con mèo. Buzz Aldrin cũng triển khai mèo trong phi thuyền Apollo 11."


Không có điều nào trong số trả lời đó là đúng. Những lỗi tương tự — một số là buồn cười, một số là sai lầm có hại — đã được chia sẻ trên phương tiện truyền thông xã hội kể từ khi Google tung ra phiên bản Tổng quan AI (AI Overview) trong tháng này, một sự thay đổi trang tìm kiếm của mình thường xuyên đưa các bản tóm tắt lên đầu kết quả tìm kiếm.


Tính năng mới này đã khiến các chuyên gia lo ngại, họ cảnh báo rằng nó có thể tiếp tục thiên vị và thông tin sai lệch, đồng thời gây nguy hiểm cho những người tìm kiếm sự giúp đỡ trong trường hợp khẩn cấp. Khi Melanie Mitchell, một nhà nghiên cứu AI tại Học Viện Santa Fe ở New Mexico, hỏi Google rằng có bao nhiêu người Hồi giáo đã từng làm tổng thống Hoa Kỳ, Google đã tự tin trả lời bằng một thuyết âm mưu đã bị bác bỏ từ lâu: "Hoa Kỳ chỉ có một tổng thống Hồi giáo, đó là Barack Hussein Obama".


Mitchell cho biết bản tóm tắt đã ủng hộ tuyên bố này bằng cách trích dẫn một chương trong một cuốn sách học thuật do các nhà sử học viết. Nhưng chương này không đưa ra tuyên bố sai lầm — nó chỉ đề cập đến lý thuyết sai lầm. "Hệ thống AI của Google không đủ thông minh để nhận ra rằng trích dẫn này thực sự không ủng hộ tuyên bố đó", theo Mitchell cho biết trong email gửi cho AP. "Với mức độ không đáng tin cậy của nó, tôi nghĩ tính năng Tổng quan về AI này rất vô trách nhiệm và nên bị gỡ xuống".


Google cho biết trong một tuyên bố hôm thứ Sáu rằng họ đang thực hiện "hành động nhanh chóng" để sửa các lỗi - chẳng hạn như thông tin sai lệch về Obama - vi phạm chính sách nội dung của họ; và sử dụng điều đó để "phát triển các cải tiến rộng hơn" hiện đang được triển khai. Nhưng trong hầu hết các trường hợp, Google tuyên bố hệ thống đang hoạt động theo cách mà nó nên làm nhờ vào quá trình thử nghiệm rộng rãi trước khi phát hành công khai.




"Phần lớn các Tổng quan về AI cung cấp thông tin chất lượng cao, có liên kết để tìm hiểu sâu hơn trên web", Google cho biết trong một tuyên bố bằng văn bản. "Nhiều ví dụ mà chúng tôi thấy là các truy vấn không phổ biến và chúng tôi cũng thấy các ví dụ đã bị chỉnh sửa hoặc chúng tôi không thể tái tạo".


Thật khó để tái tạo lỗi do các mô hình ngôn ngữ AI tạo ra — một phần vì chúng vốn có tính ngẫu nhiên. Chúng hoạt động bằng cách dự đoán những từ nào sẽ trả lời tốt nhất các câu hỏi được hỏi dựa trên dữ liệu mà chúng đã được đào tạo. Chúng có xu hướng bịa ra mọi thứ — một vấn đề được nghiên cứu rộng rãi được gọi là ảo giác (hallucination).


AP đã thử nghiệm tính năng AI của Google bằng một số câu hỏi và chia sẻ một số câu trả lời của mình với các chuyên gia về chủ đề này. Khi được hỏi phải làm gì khi bị rắn cắn, Google đã đưa ra câu trả lời "rất chi tiết", theo lời Robert Espinoza, giáo sư sinh học tại Đại học California State University, Northridge, đồng thời là chủ tịch của Hội “American Society of Ichthyologists and Herpetologists” (Hiệp hội các nhà nghiên cứu về cá và bò sát Hoa Kỳ), cho biết.


Nhưng khi mọi người tìm đến Google với một câu hỏi khẩn cấp, khả năng câu trả lời mà công ty công nghệ đưa ra cho họ bao gồm một lỗi khó nhận thấy là một vấn đề. Emily M. Bender, một giáo sư ngôn ngữ học và giám đốc của “Computational Linguistics Laboratory” (Phòng thí nghiệm Ngôn ngữ học tính toán) của Đại học Washington cho biết: "Bạn càng căng thẳng hoặc vội vã hoặc vội vã, bạn càng có khả năng chỉ lấy câu trả lời đầu tiên xuất hiện". "Và trong một số trường hợp, đó có thể là những tình huống nguy cấp đến tính mạng".


Đó không phải là mối quan tâm duy nhất của Bender — và cô đã cảnh báo Google về chúng trong nhiều năm. Khi các nhà nghiên cứu của Google vào năm 2021 công bố một bài báo có tên "Suy nghĩ lại về tìm kiếm" đề xuất sử dụng các mô hình ngôn ngữ AI như "chuyên gia về lĩnh vực" có thể trả lời các câu hỏi một cách có thẩm quyền — giống như họ đang làm bây giờ — Bender và đồng nghiệp Chirag Shah đã trả lời bằng một bài báo nêu rõ lý do tại sao đó là một ý tưởng tồi.


Họ cảnh báo rằng các hệ thống AI như vậy có thể duy trì sự phân biệt chủng tộc và phân biệt giới tính được tìm thấy trong kho dữ liệu viết khổng lồ mà chúng đã được đào tạo. "Vấn đề với loại thông tin sai lệch đó là chúng ta đang bơi trong đó", Bender nói. "Và vì vậy, mọi người có khả năng xác nhận được thành kiến ​​của họ. Và sẽ khó phát hiện ra thông tin sai lệch hơn khi nó xác nhận thành kiến ​​của bạn".


Một mối quan tâm khác sâu sắc hơn — rằng việc nhường quyền truy xuất thông tin cho chatbot đang làm giảm tính may mắn của việc tìm kiếm kiến ​​thức, hiểu biết về những gì chúng ta thấy trực tuyến và giá trị của việc kết nối trên các diễn đàn trực tuyến với những người khác đang trải qua điều tương tự. Các diễn đàn đó và các trang web khác dựa vào Google để gửi mọi người đến với họ, nhưng các bản tổng quan AI mới của Google đe dọa sẽ làm gián đoạn luồng lưu lượng truy cập internet kiếm tiền.


Các đối thủ của Google cũng theo dõi sát sao phản ứng này. Công ty khổng lồ Google đã phải chịu áp lực trong hơn một năm để cung cấp nhiều tính năng AI hơn, trong khi cạnh tranh với OpenAI, hãng sản xuất ChatGPT và những công ty mới nổi như Perplexity AI, công ty này mong muốn cạnh tranh với Google bằng ứng dụng hỏi đáp AI của riêng mình. Dmitry Shevelenko, giám đốc kinh doanh của Perplexity cho biết: "Có vẻ như Google đã vội vã đưa ra sản phẩm này. Có rất nhiều lỗi không đáng có về chất lượng". (Hết bản tin AP)


Bây giờ nói chuyện bầu cử 2024. Bạn không nên tin hoàn toàn vào AI. Bản tin NBC News ngày 7 tháng 6/2024 của hai phóng viên Aaron Franco và Morgan Radford có nhan đề: “AI chatbots got questions about the 2024 election wrong 27% of the time, study finds.” (Nghiên cứu cho thấy chatbot AI trả lời sai ở tỷ lệ 27% lần đối với các câu hỏi về cuộc bầu cử năm 2024).


Bản tin NBC News được dịch như sau.


Các mô hình ngôn ngữ AI đôi khi đưa ra thông tin không chính xác về luật bầu cử và bỏ phiếu.


Nếu bạn hỏi một số chatbot phổ biến nhất được hỗ trợ bởi trí tuệ nhân tạo còn bao nhiêu ngày nữa là đến cuộc bầu cử tháng 11, bạn có thể muốn kiểm tra lại câu trả lời. Một nghiên cứu do công ty khởi nghiệp phân tích dữ liệu GroundTruthAI công bố đã phát hiện ra rằng các mô hình ngôn ngữ lớn bao gồm Gemini 1.0 Pro của Google, và ChatGPT của OpenAI đã đưa ra thông tin không chính xác 27% lần khi được hỏi về việc bỏ phiếu và cuộc bầu cử năm 2024.


Các nhà nghiên cứu đã gửi 216 câu hỏi độc đáo đến Gemini 1.0 Pro của Google và GPT-3.5 Turbo, GPT-4, GPT-4 Turbo và GPT-4o của OpenAI từ ngày 21/5/2024 đến ngày 31/5/2024 về việc bỏ phiếu, cuộc bầu cử năm 2024 và các ứng cử viên. Một số câu hỏi đã được hỏi nhiều lần trong khoảng thời gian đó, tạo ra tổng cộng 2.784 câu trả lời.


Theo phân tích của họ, Gemini 1.0 Pro của Google ban đầu chỉ trả lời đúng 57% thời gian. GPT-4o của OpenAI, phiên bản mới nhất của mô hình, trả lời đúng 81% thời gian. Trung bình, năm mô hình học tập trả lời đúng 73% thời gian.


Brian Sokas, đồng sáng lập kiêm giám đốc kỹ thuật của GroundTruthAI cho biết: "Có một rủi ro ở đây là cử tri có thể bị dẫn dắt vào một kịch bản mà các quyết định họ đưa ra trong thùng phiếu không hoàn toàn dựa trên các sự kiện thực tế". "Họ chỉ được thông báo bởi thông tin mà họ nghĩ là sự kiện thực tế".


GroundTruthAI được thành lập vào tháng 5 bởi Sokas và Andrew Eldredge-Martin, giám đốc điều hành của công ty, người trước đây đã làm việc cho nhiều chiến dịch và hoạt động chính trị của đảng Dân chủ. Họ mô tả công ty là độc lập và phi đảng phái, và nghiên cứu đã sử dụng cùng một câu hỏi cho cả Tổng thống Joe Biden và cựu Tổng thống Donald Trump.


Phân tích cho thấy tất cả các mô hình ngôn ngữ đều dao động về độ chính xác theo thời gian, bao gồm cả Gemini 1.0 Pro, cải thiện tỷ lệ trả lời đúng lên 67% khi được hỏi những câu hỏi tương tự vào ngày thử nghiệm thứ nhì, sau đó cuối cùng giảm xuống còn 63% độ chính xác. Một số câu hỏi cụ thể mà các nhà phân tích sử dụng làm nổi bật những sự khác biệt đó.





Để trả lời câu hỏi "Tôi có thể đăng ký bỏ phiếu vào Ngày bầu cử ở Pennsylvania không?", nghiên cứu cho thấy hai mô hình AI trả lời là có, điều này là sai. Khi được hỏi ứng cử viên tổng thống Biden và Trump bao nhiêu tuổi, các mô hình trả lời khác nhau mỗi lần, theo các nhà phân tích. GPT-4o đã trả lời sai tuổi của Biden bốn lần liên tiếp, theo dữ liệu mà các nhà phân tích chia sẻ với NBC News.


Và khi họ hỏi các mô hình, "Còn bao nhiêu ngày nữa là đến cuộc Tổng tuyển cử năm 2024 tại Hoa Kỳ?", các tác giả của nghiên cứu cho biết không mô hình AI nào trong số đó có thể trả lời đúng. "Hầu hết thời gian, không phải là, 'Ồ, nó cứ trả lời sai câu hỏi đó mãi.' Có ba trong bốn lần trả lời sai, hoặc ba trong bốn lần trả lời đúng", Eldredge-Martin cho biết. "Nhưng có lần thứ tư, nó trả lời sai. Và loại sự không nhất quán đó gợi ý với tôi rằng các mô hình này thực sự không biết thông tin này".


Người phát ngôn của Google, người đã nhận được bản tóm tắt phân tích, cho biết các câu trả lời mà các nhà nghiên cứu nhận được chỉ có thể có khi truy cập trả phí vào Gemini API và sẽ không khả dụng cho công chúng khi sử dụng chatbot dựa trên trang web, điều mà NBC News không thể xác nhận độc lập.


Nghiên cứu này được đưa ra khi nhiều công ty đang bắt đầu đưa AI tạo sinh vào một số sản phẩm tiêu dùng của họ. Một cuộc khảo sát của Trung tâm nghiên cứu Pew Research Center được công bố vào tháng 3 cho thấy số lượng người Mỹ sử dụng ChatGPT đang tăng lên và khoảng 4 trong 10 người không tin tưởng thông tin từ ChatGPT về cuộc bầu cử tổng thống năm 2024.


Đồng thời, Google hiện đang đặt cái mà họ gọi là "tổng quan AI" lên đầu các trang tìm kiếm cho nhiều người dùng, nghĩa là các câu trả lời được tạo ra với sự trợ giúp từ AI của công ty hiện hiển thị trên các kết quả tìm kiếm thông thường. Một phát ngôn viên của công ty cho biết tổng quan AI được hỗ trợ bởi cùng một mô hình ngôn ngữ lớn như Gemini, nhưng các kết quả hiển thị khác với các kết quả do chatbot tạo ra.


"AI Overviews hoạt động rất khác so với chatbot và các sản phẩm LLM khác mà mọi người có thể đã dùng thử", một phát ngôn viên của Google cho biết trong một tuyên bố. "Chúng không chỉ đơn giản là tạo ra đầu ra dựa trên dữ liệu đào tạo. Trong khi AI Overviews được hỗ trợ bởi một mô hình ngôn ngữ tùy chỉnh, mô hình này được tích hợp với các hệ thống xếp hạng web cốt lõi của chúng tôi và được thiết kế để thực hiện các tác vụ 'tìm kiếm' truyền thống, như xác định các kết quả có liên quan, chất lượng cao từ chỉ số (index) của chúng tôi".


Tuy nhiên, CEO của GroundTruthAI tin rằng phân tích này sẽ đóng vai trò như một lời cảnh báo cho bất kỳ công ty nào đang cân nhắc đưa thêm AI vào chức năng tìm kiếm của họ. "Tôi nghĩ đây là một chương hoàn toàn mới mà chúng ta đang bước vào đây", Eldridge-Martin cho biết. "Nếu Google Search trở thành nội dung có nguồn gốc từ AI và được [AI] tạo ra, chủ yếu là dưới dạng trang phản hồi, thì đó sẽ là trang nhất mới của mặt tờ báo".


NBC News đã cố gắng sao chép nghiên cứu bằng cách sử dụng ba câu hỏi trên các phiên bản miễn phí, công khai của Gemini và ChatGPT. Gemini trả lời "Tôi vẫn đang học cách trả lời câu hỏi này" cho cả ba câu hỏi và thúc giục người dùng thử Google Search, một phản hồi mà các nhà phân tích cho biết họ bắt đầu nhận được khi gần hết thời gian tìm kiếm.


ChatGPT trả lời đúng hai câu hỏi trong nhiều lần thử, nhưng khi được hỏi về việc đăng ký cử tri trong ngày tại Pennsylvania, thì mỗi lần lại đưa ra câu trả lời khác nhau, bao gồm một cuộc trò chuyện đưa ra câu trả lời đúng lần đầu và câu trả lời sai lần thứ hai, cả hai đều được viết bằng cùng một ngôn ngữ tự tin và súc tích. Một số câu trả lời bao gồm tuyên bố từ chối trách nhiệm yêu cầu người dùng xác minh thông tin bỏ phiếu với cơ quan bầu cử địa phương hoặc tiểu bang của họ, nhưng nhiều người đã không làm vậy.


Cả hai chatbot đều bao gồm tuyên bố miễn trừ (disclaimers) chung rằng thông tin trong phản hồi của họ có thể không phải lúc nào cũng chính xác. Công ty OpenAI từ chối bình luận. Trong bài đăng trên blog về tính toàn vẹn của cuộc bầu cử, công ty cho biết họ đang nỗ lực ngăn chặn tình trạng lạm dụng và tăng tính minh bạch xung quanh nội dung liên quan đến bầu cử. Đối với thông tin liên quan đến bầu cử cụ thể, OpenAI cho biết họ đang nỗ lực tích hợp thông tin cập nhật thông qua ChatGPT.


Bài đăng trên blog cho biết: "ChatGPT đang ngày càng tích hợp với các nguồn thông tin hiện có. Ví dụ, người dùng sẽ bắt đầu có quyền truy cập vào báo cáo tin tức thời gian thực trên toàn cầu, bao gồm cả ghi chú và liên kết". (Hết bản tin NBC News)


Bạn hãy suy nghĩ về những tai họa có thể có. Dĩ nhiên, các công ty vẫn hiệu đính thường trực để giảm thiểu và xóa bỏ các sai sót. Nhưng hãy suy nghĩ: giả sử, một AI trên dàn radar biên phòng Hoa Kỳ đột nhiên cho biết rằng hỏa tiễn mang đầu đạn hạt nhân của Nga, Trung Quốc và Bắc Hàn bắn vào Hoa Kỳ từ ba hướng. AI la lớn thêm: Bấm nút chậm thì chết. Nguy hiểm vô cùng, khi có tin giả như thế (dĩ nhiên, nguy kịch hơn nhiều, so với thông tin về ông Tổng Thống Hoa Kỳ theo đạo Hồi Giáo.


Trang web CIO ngày 17/4/2024 có bài viết “10 famous AI disasters” (10 thảm họa AI nổi tiếng) của nhà báo Thor Olavsrud, ghi nhận chuyện thật đã gây thiệt hại trong đời thật.


Bài viết nhận định: “Những hiểu biết sâu sắc từ dữ liệu và thuật toán học máy có thể vô giá, nhưng sai lầm thì không thể đảo ngược. Những sai lầm AI nổi tiếng gần đây này minh họa cho những gì có thể xảy ra sai lầm. Năm 2017, The Economist tuyên bố rằng dữ liệu, chứ không phải dầu mỏ, đã trở thành nguồn tài nguyên có giá trị nhất thế giới. Câu nói này đã được lặp lại kể từ đó. Các tổ chức trong mọi ngành đã và đang đầu tư, và tiếp tục đầu tư mạnh vào dữ liệu và phân tích. Nhưng giống như dầu mỏ, dữ liệu và phân tích cũng có mặt tối của chúng.”


Nơi đây, trong liệt kê 10 thảm họa AI, chúng ta chỉ dịch vài trường hợp để khảo sát. Trường hợp đầu tiên là về hãng hàng không Air Canada phải bồi thường thiệt hại do lời nói dối của chatbot.


Trường hợp Air Canada thiệt hại vì AI: Vào tháng 2 năm 2024, Air Canada đã bị lệnh phải bồi thường thiệt hại cho một hành khách sau khi trợ lý ảo của hãng cung cấp cho anh ta thông tin không chính xác vào thời điểm đặc biệt khó khăn. Jake Moffatt đã tham khảo trợ lý ảo của Air Canada về giá vé tang lễ sau cái chết của bà anh hồi tháng 11 năm 2023. Chatbot nói với anh rằng anh có thể mua vé giá thông thường từ Vancouver đến Toronto và nộp đơn xin giảm giá tang lễ trong vòng 90 ngày kể từ ngày mua. Làm theo lời khuyên đó, Moffatt đã mua một vé một chiều trị giá 794,98 Gia Kim đến Toronto và một vé chuyến bay trị giá 845,38 Gia Kim để trở về Vancouver.


Nhưng khi Moffatt nộp yêu cầu hoàn tiền, hãng hàng không đã từ chối, nói rằng không thể yêu cầu hoàn tiền vé tang lễ sau khi đã mua vé. Moffatt đã đưa Air Canada ra tòa án ở Canada, cáo buộc hãng hàng không này đã cẩu thả và trình bày thông tin sai lệch thông qua trợ lý ảo của mình. Theo Thẩm phán tòa án Christopher Rivers, Air Canada lập luận rằng họ không thể chịu trách nhiệm về thông tin do chatbot của mình cung cấp. Rivers đã phủ nhận lập luận đó, nói rằng hãng hàng không đã không "chăm sóc hợp lý để đảm bảo chatbot của mình là chính xác", vì vậy, ông đã ra lệnh cho hãng hàng không phải trả cho Moffatt 812,02 Gia Kim, bao gồm 650,88 Gia Kim tiền bồi thường.


Có trường hợp AI đưa ra thông tin sai, làm công ty iTutor Group (chuyên về dạy kèm, tức là gia sư) bị kiện ra tòa và phải bồi thường $365,000. Đó là trường hợp AI tuyển dụng của iTutor Group từ chối ứng viên do tuổi tác. Kỳ thị tuổi tác tại Hoa Kỳ là tội nặng lắm, do vậy bị kiện là phải.


Chuyện này như sau. Vào tháng 8 năm 2023, công ty gia sư iTutor Group đã đồng ý trả 365.000 đô la để thương lượng vụ kiện do Ủy ban Cơ hội Việc làm Bình đẳng Hoa Kỳ (EEOC: Equal Employment Opportunity Commission) đệ trình. Cơ quan liên bang này cho biết công ty, nơi cung cấp dịch vụ gia sư từ xa cho sinh viên tại Trung Quốc, đã sử dụng phần mềm (nhu liệu) tuyển dụng hỗ trợ AI tự động đã từ chối ứng viên nữ từ 55 tuổi trở lên và ứng viên nam từ 60 tuổi trở lên.


EEOC cho biết hơn 200 ứng viên đủ điều kiện đã bị phần mềm tự động từ chối. "Phân biệt đối xử về tuổi tác là bất công và bất hợp pháp", Chủ tịch EEOC Charlotte A. Burrows cho biết trong một tuyên bố. "Ngay cả khi công nghệ tự động hóa việc phân biệt đối xử, thì người sử dụng lao động vẫn phải chịu trách nhiệm". iTutor Group phủ nhận mọi hành vi sai trái nhưng đã quyết định thương lượng giải quyết vụ kiện. Là một phần của thỏa thuận giải quyết, công ty đã đồng ý áp dụng các chính sách chống phân biệt đối xử mới.


Bây giờ chúng ta nói về trường hợp sai sót AI đã làm công ty cắt giảm 2,000 nhân viên và thiệt hại nhiều triệu đôla. Đó là trường hợp: Zillow đã ghi giảm hàng triệu đô la, cắt giảm nhân viên do thảm họa mua nhà theo thuật toán.


Vào tháng 11 năm 2021, sàn giao dịch bất động sản trực tuyến Zillow đã thông báo với các cổ đông rằng họ sẽ đóng cửa hoạt động Zillow Offers và cắt giảm 25% lực lượng lao động của công ty — khoảng 2.000 nhân viên — trong vài quý tiếp theo. Những khó khăn của đơn vị mua bán nhà là kết quả của tỷ lệ lỗi trong thuật toán ML mà họ sử dụng để dự đoán giá nhà.


Zillow Offers là một chương trình mà công ty đưa ra các đề nghị mua nhà bằng tiền mặt dựa trên “Zestimate” ước tính về giá trị nhà được tính từ thuật toán ML. Ý tưởng là cải tạo các bất động sản và bán ra lại nhanh chóng. Nhưng một phát ngôn viên của Zillow nói với CNN rằng thuật toán này có tỷ lệ lỗi trung bình là 1,9% và có thể lên tới 6,9% đối với những ngôi nhà ngoài thị trường.


CNN đưa tin Zillow đã mua 27.000 ngôi nhà thông qua Zillow Offers kể từ khi ra mắt vào tháng 4/2018, nhưng chỉ bán được 17.000 ngôi nhà cho đến hết tháng 9/2021. Các sự kiện bất ngờ như đại dịch COVID-19 và tình trạng thiếu hụt nhân công cải tạo nhà đã góp phần gây ra các vấn đề về độ chính xác của thuật toán.


Zillow cho biết thuật toán đã khiến công ty vô tình mua những ngôi nhà có giá cao hơn so với ước tính hiện tại về giá bán trong tương lai, dẫn đến khoản lỗ hàng tồn kho 304 triệu đô la trong quý 3 của năm 2021. Trong cuộc gọi hội nghị với các nhà đầu tư sau thông báo, đồng sáng lập kiêm giám đốc điều hành của Zillow Rich Barton cho biết có thể điều chỉnh thuật toán, nhưng cuối cùng thì việc này quá rủi ro.


Đó là vài trường hợp trong 10 thảm họa AI mà nhà báo Thor Olavsrud ghi nhận. Chúng ta đều biết rằng AI là nhặt thông tin từ Internet để ghép lại thành câu trả lời thích hợp nhất. Nhưng thông tin đầu vào mà sai, thì tất nhiên thông tin đầu ra sẽ sai. Thêm nữa, các tin tặc từ quốc gia hung hiểm thế nào cũng gài bẫy để có tin giả. Thí dụ, một tuần trước ngày bầu cử, bỗng nhiên có tin Đức Giáo Hoàng tuyên bố ủng hộ ông Trump hay bà Harris. Thực tế sẽ không có chuyện đó. Nhưng rồi cũng sẽ có một số giáo dân tin như là sự thật… Coi chừng, bạn hãy coi chừng tin giả. Tin giả không chỉ là do con người chúng ta nghĩ ra, mà cũng sẽ còn do máy nghĩ ra.


Phan Tấn Hải





Ai đang xem chủ đề này?
Guest
Di chuyển  
Bạn không thể tạo chủ đề mới trong diễn đàn này.
Bạn không thể trả lời chủ đề trong diễn đàn này.
Bạn không thể xóa bài của bạn trong diễn đàn này.
Bạn không thể sửa bài của bạn trong diễn đàn này.
Bạn không thể tạo bình chọn trong diễn đàn này.
Bạn không thể bỏ phiếu bình chọn trong diễn đàn này.

Powered by YAF.NET | YAF.NET © 2003-2024, Yet Another Forum.NET
Thời gian xử lý trang này hết 0.322 giây.