(продолжение – ответы на замечания Странника)
Что касается того, что данные по Солнцу не публикуются, чтобы не позориться, по тому, что они по Вашему мнению (со ссылкой на Ньюкома) не надежные, то я тут не вижу логики. Ведь Ньюком объясняет неточность данных по Солнцу плохим качеством астрономических инструментов, низкой квалификацией астрономов и тем, что они точку весеннего равноденствия определяли только по Солнцу (не уточняя ее по неподвижным звездам). Но ведь в наблюдениях за планетами будут те же самые ошибки и плюс еще ошибка на фазу, которую Ньюком тоже уточняет. А от себя добавлю, что будет еще и ошибка в определение планетной аберрации (Ньюком пишет только об ошибках в звездной аберрации) и, следовательно, ошибки в определение координат планет должны быть еще больше, чем ошибки в координатах Солнца. Но ведь данные наблюдений по планетам опубликованы на многих сайтах. Следовательно, дело тут не в том, что наблюдения за Солнцем низкого качества, а по планетам хорошие. Кстати, обработав данные наблюдений по планетам различных обсерваторий, могу сказать, что как минимум 5% этих данных являются явно бракованными (а, пожалуй, самые плохие данные у Оксфордской обсерватории), но, как видите по приведенным мною графикам, это не мешает мне обрабатывать эти данные и получать результаты точно такие же, как и у JPL (НАСА).
Теперь, что касается Вашего восторга по поводу методики обработки данных в JPL, когда они на математической модели оптимизируют сразу все массы планет. Во-первых, Вы не можете знать, как они это делают и делают ли вообще, т.к. это официально является коммерческой тайной JPL, а из краткой статьи Е. Майлс Стендиш, Джеймс Г. Вильямс, Орбитальные эфемериды Солнца, Луны и планет .
http://iau-comm4.jpl.nasa.gov/XSChap8.pdf (перевод этой статьи В.Чазова .
http://vadimchazov.narod.ru/text_htm/xsru00.htm), где они описывают, как создавались эфемериды DE405, Вы, конечно же, этого не узнаете. У них там даже отсутствует глава 7 (Различные формулы редукции наблюдательных данных), на которую, кстати, в этой статье авторы часто ссылаются. И вообще, при получение эфемерид DE405, данные оптических наблюдений за планетами и Солнцем не использовались, а вместо этого взяты современные радарные данные и данные РСДБ (естественно за последние несколько десятилетий). Например, по Меркурию это радиотелескоп Аресибо, с 1967 по 1982 годы, радиотелескоп Хайстак, с 1966 по 1971 годы, Голдстоун, 1970-1977 годы.
А вот при создание эфемерид DE200, как они пишут, они использовали данные оптических наблюдений, но все равно этого никто проверить не может, т.к. нам не известна ни их методика обработки данных, ни применявшийся критерий оптимизации. Единственное, что я могу ответственно заявить, так это то, что эфемериды DE200 практически ничем не отличаются от эфемерид DE405 (см. обработанные мною данные этих эфемерид). По этому, заявление о том, что в эфемеридах DE405 использовались только современные радарные данные и данные РСДБ это просто заявление на публику. Ведь они сами пишут, что этими данными только улучшали эфемериды DE200, т.е. за основу все-таки взяты данные оптических наблюдений, по которым были получены эфемериды DE200 (т.е. были получены параметры математической модели, на которой и рассчитывались эфемериды DE200). Таким образом, заявление о том, что в эфемеридах DE405 использовались только современные радарные данные и данные РСДБ сделано просто для поднятия рейтинга этих эфемерид и мы, в конце концов, опять приходим к данным оптических наблюдений.
А, если мы приходим к данным оптических наблюдений, то, следовательно, мы не только будем использовать данные по Солнцу, но и вынуждены учитывать при оптимизации параметров математической модели, кроме масс четырех внутренних планет (остальные планеты и так хорошо описываются) также скорость Солнечной системы (по трем осям), скорость распространения гравитации и вид формулы, по которой определяется сила притяжения между планетами. Это явно задача для многофакторного планирования, где у нас имеется восемь количественных параметров (факторов) и один качественный (вид формулы). Вот только критерий оптимизации здесь не ясен. То ли это сумма отклонений по долготе или широте, то ли по расстояниям между планетами, а может быть какой то комбинированный критерий, да еще и с какими ни будь весовыми коэффициентами. Но о том, как все это делали в JPL мы ничего сказать не можем, т.к. ни о каких критериях оптимизации или о многофакторном планировании ни в одной статье сотрудники JPL даже не упоминают. Рискну предположить, что сотрудники JPL и не слышали о методах многофакторного планирования и проводили оптимизацию методом покоординатного поиска, т.к. если бы они использовали современные методы многофакторного планирования, то они обязательно упомянули бы об этом (для поднятия научного престижа своих эфемерид). При этом, они, естественно, использовали только одну физическую теорию (ОТО), скорость Солнечной системы у них была равна нулю, а скорость гравитации была равна бесконечности.
Да, я в своем исследование пошел по пути многофакторного планирования, но я не разделяю Вашего оптимизма и в этом случае, когда мы оптимизируем все и сразу. Ведь, во-первых, если мы будем оптимизировать только количественные параметры модели (правда скорости Солнечной системы здесь являются не параметрами модели, а условиями проведения операции, но оптимизировать их можно как параметры), то только для выполнения одного плана эксперимента нам надо будет провести как минимум 2^n+2*n=272 вычислительных эксперимента на математической модели, где n=8 - количественные факторы. С учетом того, что на обычном Пентиуме один вычислительный эксперимент длится где-то 3 часа, это будет 816 часов чистого машинного времени, что вполне выполнимая задача. Если добавить сюда еще и качественный параметр, например, на пяти уровнях, т.е. 5-ть различных физических теорий, то получится как минимум (при простейших формулах, как у Ньютона) 4080 часов чистого машинного времени (для формул, как у ОТО, будет раза в два больше). А, если учесть, что надо будет выполнить, как минимум три таких исследования (два по крутому восхождению в область оптимума и потом уточняющий план), то получится 12240 часов (510 суток). И это только время обработки данных по одной обсерватории. А если Мы будем обрабатывать данные, например, 10-ти обсерваторий, то нам потребуется 122400 часов, т.е. 5100 суток (это 14 лет чистого машинного времени, т.е. не считая времени на ввод исходных данных, обработку полученных данных и постановку новой задачи). Но и это в общем то не принципиальная проблема (особенно, если у Вас есть суперкомпьютер). Самое главное, что будет при этом, во-вторых.
А вот здесь я боюсь, что и при таком подходе эта задача не будет иметь однозначного решения, т.к. оптимальные параметры модели для данных различных обсерваторий могут получиться очень противоречивыми, например, как поправки у Ньюкома. Я пока не могу все это обосновать четко теоретически, но интуитивно чувствую, что эту задачу надо решать в два этапа (хотя может быть выбор методики объясняется тем, что у меня нет суперкомпьютера и я даже не рассматривал этот вариант). В общем, я сейчас собираюсь сначала обработать данные наблюдений различных обсерваторий по Солнцу и потом (при заданной траектории орбиты Земли) по планетам при покоящейся Солнечной системе, чтобы получить параметры орбит планет с учетом вековых смещений по критерию минимальной ошибки расчетных и наблюдаемых расстояний между планетами. А потом я найду на математической модели системы соответствующие этим данным скорости Солнечной системы и гравитации при одном из законов притяжения по критерию минимального отклонения расчетных и наблюдаемых вековых смещений параметров орбит планет (придется использовать весовые коэффициенты для каждой планеты и каждого параметра). Потом же опять надо будет обработать данные наблюдений при полученной скорости Солнечной системы (изменятся звездная и планетная аберрации) и опять уточнить скорости Солнечной системы и гравитации (с имеющимися сейчас массами планет).
И только после этого можно оптимизировать на математической модели системы (с заданными условиями проведения операции и законом притяжения) массы планет, где критерием оптимизации опять таки будут минимальные отклонения расчетных и наблюдаемых вековых смещений параметров орбит планет. Потом надо будет проделать все то же самое для другого закона притяжения между планетами, потом для другого и т.д. и по наилучшему значению критерия оптимизации выбрать окончательный вариант. В общем, я Вашего оптимизма в решение этой задачи не разделяю. К тому же, данные оптических наблюдений по Солнцу нужны в любом варианте, а, учитывая то, что их нигде нет в Интернете, решение этой задачи автоматически переходит в режим долгостроя.
С наилучшими пожеланиями Сергей Юдин.