Ai dịch chuẩn giúp mình bài này với, có nhiều từ khó mình thấy chưa hiểu lắm. Không dịch gg dịch nha vì mình sẽ tố cáo câu trả lời đó. Offensive Online Robot Gets Unplugged (VOA) Tay is an Artificial Intelligence or AI developed by Microsoft and Bing researchers. The robot, chatbot or bot is able to copy human behavior and talks and writes. Microsoft launched Tay online in March. But 16 hours later the company had to remove the bot from the web. Tay had very quickly learned some extremely insulting language. Microsoft said Tay was developed for use by 18 to 24-year-olds in the U.S. The company posted information about Tay before it went online. The post said that the more people talk to Tay, the smarter the bot would become. Developers hoped Tay would provide funny answers to tweets and other messages from the apps Kik, GroupMe and Twitter. But many of the messages Tay received used offensive language. Soon, the bot was using that language in its own posts. Tay’s posts included sexist and racist messages. Some of the bot’s tweets got so bad that one newspaper called Tay the “Hitler-loving sex robot.” Kris Hammond is a computer scientist and professor. He told the Associated Press that he could not believe Tay’s developers did not expect such problems would occur. Tay tweeted roughly 96,000 times before Microsoft took it down. In a blog post, Microsoft took full responsibility for not predicting the problems. They also said they are working on Tay again to try fix it. They are hopeful the bot will return to the online world.
2 câu trả lời
Tay là 1 Trí tuệ nhân tạo hoặc AI được phát triển bởi các nhà nghiên cứu của Microsoft và Bing. Robot, chatbot hoặc bot có thể bắt chước hành vi của con người và nói và viết. Microsoft giới thiệu và ra mắt Tay trực tuyến vào tháng 3. Nhưng 16 tiếng sau công ty đã phải dời bot khỏi trang web. Tay đã rất nhanh chóng học được một số từ ngữ cực kỳ xúc phạm. Microsoft nói rằng Tay được phát triển cho những người dùng từ 18 đến 24 tuổi ở Hoa Kỳ. Công ty đã đăng thông tin về Tay trước khi đưa nó lên mạng. Bài đăng cho biết càng nhiều người nói chuyện với Tay, bot sẽ càng thông minh hơn. Các nhà phát triển hy vọng Tay sẽ cung cấp những câu trả lời vui nhộn cho các tweet và các tin nhắn khác từ các ứng dụng Kik, GroupMe và Twitter. Nhưng nhiều tin nhắn mà Tay nhận được có chứa ngôn từ xúc phạm. Chẳng bao lâu, bot đã sử dụng ngôn ngữ đó trong các bài đăng của chính nó. Bài đăng của Tay bao gồm thông điệp phân biệt giới tính và thông điệp phân biệt chủng tộc. Một số tweet của bot trở nên xấu đến mức một tờ báo gọi Tay là “robot tình dục yêu Hitler”. Kris Hammond là một nhà khoa học máy tính và giáo sư. Ông ấy nói với Associated Press là ông ấy ko thể tin rằng các nhà phát triển của Tay ko chờ đợi những vấn đề như vậy sẽ xảy đến. Tay đã tweet đại khái 96,000 lần trước khi Microsoft lấy nó xuống. Trong 1 bài viết trên blog, Microsoft đã nhận toàn bộ nhiệm vụ ko phải ko dự đoán vấn đề. Họ cũng nói rằng họ đang làm việc trên Tay một lần nữa để cố gắng sửa lại nó. Họ hy vọng và hứa hẹn bot sẽ trở lại thế giới trực tuyến.
Robot trực tuyến tấn công được rút phích cắm (VOA)
Tay là một trí tuệ nhân tạo hoặc AI được phát triển bởi các nhà nghiên cứu của Microsoft và Bing. Robot, chatbot hoặc bot có thể sao chép hành vi của con người và nói chuyện và viết. Microsoft đã ra mắt Tay trực tuyến vào tháng 3. Nhưng 16 giờ sau, công ty đã phải loại bỏ bot khỏi web. Tay đã rất nhanh chóng học được một số ngôn ngữ cực kỳ xúc phạm. Microsoft cho biết Tay được phát triển để sử dụng bởi những người từ 18 đến 24 tuổi ở Mỹ. Công ty đã đăng thông tin về Tay trước khi nó lên mạng. Bài đăng nói rằng càng nhiều người nói chuyện với Tay, bot sẽ càng trở nên thông minh hơn. Các nhà phát triển hy vọng Tay sẽ cung cấp câu trả lời hài hước cho các tweet và các tin nhắn khác từ các ứng dụng Kik, GroupMe và Twitter. Nhưng nhiều tin nhắn mà Tay nhận được đã sử dụng ngôn ngữ xúc phạm. Chẳng mấy chốc, bot đã sử dụng ngôn ngữ đó trong các bài đăng của riêng mình. Các bài đăng của Tay bao gồm các thông điệp phân biệt giới tính và phân biệt chủng tộc. Một số tweet của bot trở nên tồi tệ đến mức một tờ báo gọi Tay là "robot tình dục yêu Hitler". Kris Hammond là một nhà khoa học máy tính và giáo sư. Ông nói với Associated Press rằng ông không thể tin rằng các nhà phát triển của Tay không mong đợi những vấn đề như vậy sẽ xảy ra. Tay đã tweet khoảng 96.000 lần trước khi Microsoft gỡ bỏ nó. Trong một bài đăng trên blog, Microsoft đã chịu trách nhiệm hoàn toàn về việc không dự đoán các vấn đề. Họ cũng cho biết họ đang làm việc với Tay một lần nữa để cố gắng sửa chữa nó. Họ hy vọng bot sẽ trở lại thế giới trực tuyến.