Может ли ИИ открыть общую теорию относительности?

Подумал еще, что идея с тестом Эйнштейна, откроет AI общую теорию относительности или нет — лучшая иллюстрация нашего отношения к ИИ. В 1911 году жило миллиард человек, миллион из них были очень хорошо обучены, а 20 — гениальными физиками. Но общую теорию относительности построил только один.

По критериям, которые мы предъявляем к AI, все остальные не GI, получается.

В более практических вещах подход такой же. Он, блин, ошибается, нельзя его использовать. А люди-то, конечно, не ошибаются никогда, раз им мы доверяем.

💬Discussion (19)

Vlad Goloshchapov@kraidiky
Ну цель то в том, чтобы обойтись без людей, и никому зарплату не платить, а не в том, чтобы избавиться только от низкооплачиваемых.
Sergey@skirpichenko
Для обычных кейсов есть тест Тьюринга. Он уже пройден!
Aleksey Z@azz1977
Проблема не в том что ИИ ошибается. Проблема в том что он ошибается в совершенно неожиданных местах. Для людей ты можешь строить систему, которая предполагает ошибки там где есть вероятность, а для ИИ я даже не представляю с какой стороны на эту проблему смотреть.

Самые популярные skills в clawbot это не-ии фильтры на команды типа rm -rf
Alexander Gorny@Gornal
Весьма популярные фильтры на людей — это проверка, не принес ли он оружие в магазин или школу, чтобы пальнуть во всех окружающих просто так.
Aleksey Z@azz1977
В логике вашего примера надо проверять наличие молотка перед входом в туалет, тк ИИ может ни с того ни с сего начать крушить санфаянс. Для людей такое делать нерационально, проще изолировать буйных превентивно
Alexander Gorny@Gornal
Но это не так же. В сравнимых условиях буйных людей больше. Waymo водит лучше живого водителя. Сотрудники мне пишет полную хрень чаще, чем chatgpt.

Какие-то rm -rf у open claw случаются, но, блин, я лично не меньше трех раз делал этот rm -rf в очень важной папке. Своими руками.
Aleksey Z@azz1977
Я вот вообще не спорю, что под очень конкретно сформулированную задачу рано или поздно создастся что то, что ее (эту конкретную задачу) делает лучше чем человек. И при построении такого решения в этой системе будет 100500 фильтров, проверок и тд.

Сотрудники пишут полную хрень - это уже вкусовщина. Либо вы наняли дурачков, либо вопрос такой что на него трудно правильно ответить
Alexander Gorny@Gornal
«Представьте себе самого среднего человека. Самого-самого среднего. Представили? Так вот, половина людей еще глупее его.»

Я думаю, что все мои сотрудники в top-20% планеты по интеллекту. Наверное, с позиции top-1% часть из них дурачки. А с top-0.001% дурачки уже top-1%. Но, блин, большинство-то даже в top-20% не входит.
𝕆𝕃𝔼𝔾 𝕂𝕆𝕄𝔸ℝ𝕆𝕍@OKomarov
История с доказательством Ферма про это. Эндрю Уайлс объявил доказательство в июне 1993, а уже к сентябрю 1993 сообщество нашло в нём дыру, не в очевидно опасном месте, а глубоко внутри аргумента. Почти год он пытался её закрыть и только 19 сентября 1994 нашёл решение, после чего работа была опубликована в 1995.

Снаружи это выглядит как ошибка космически высокого уровня математики, но для него самого это могло ощущаться как перепутанный плюс с минусом между строк.

Поэтому проблема не в том, что ИИ ошибается, люди тоже ошибаются в самых неожиданных местах. Любые сложные системы требуют фильтров и проверок, потому что точка сбоя редко совпадает с тем местом, где ты её ждёшь.
Egor@egor7723
Несколько раз слышал тейк про люди не ошибаются.
1) Если человек ошибается он несет ответственность, ты можешь ставить на определеннцю позицию человека, в котором больше уверен. ИИ не будет отличаться, он один для всего
2) Странно хоть немного думать об ИИ в контексте человека, у него будут буквально все знания до 1911, думаю у Эйнштейна было около 0,00000001 процента этих знаний, просто сошлась вероятность так сказать
Tony Anikos@TonyAnikos
обезьяны не напишут войну и мир (с) это не "вероятностное приключение " (с) увы
Zinkovska Oksana@zinkoxide
А кто по вашему ее написал? Представитель семейства гоменид 😄
Tony Anikos@TonyAnikos
https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%BE_%D0%B1%D0%B5%D1%81%D0%BA%D0%BE%D0%BD%D0%B5%D1%87%D0%BD%D1%8B%D1%85_%D0%BE%D0%B1%D0%B5%D0%B7%D1%8C%D1%8F%D0%BD%D0%B0%D1%85

В начале XX в. Эмиль Борель и Артур Эддингтон использовали теорему для указания временных масштабов, в которых начинают действовать законы статистической механики.
Zinkovska Oksana@zinkoxide
Я знаю эту штуку. Это шутка была.
Tony Anikos@TonyAnikos
ну, поэтому создать теорию относительности - по типу - когда это это должно было получиться.. увы так не работает. но как и ньютон (с) эйнштейн стоял на плечах гигантов и не был так уж и единственным вариантом - например пуанкаре
.@username010001011
Тейк в том, что если он настолько умный, что теорию относительности переоткроет, то это уже скорее asi нежели agi
Zinkovska Oksana@zinkoxide
Не знаю что там с теорией относительности.
Но я бы с удовольствием посмотрел на таблицу Менделеева в стиле GPT алфавитов 😄
Join discussion on TelegramComments are synced from Telegram

Read next