実験して得れた2つのパラーメータの関係を、散布図をプロットしてなんでもかんでも直線で近似してしまう例を見かけます。どんなランダムなデータでも最小二乗法の計算は可能なので、なんらかの直線は引けてしまいますし、相関係数なども計算できてしまいます。しかし、パッと見が直線関係に見えないデータに対して、回帰直線を引くことになんの意味があるのでしょうか。実験者の頭の中に、これとこれとが相関していて欲しい、これがこれの原因であって欲しいという気持ちがあるために、無理やり直線を引いてしまっているのではないかと思われる場合があります。
どんな曲線(直線)でデータを表すのかは、研究者の恣意的な判断です。Uの字型のデータ分布に直線を当てはめるのはナンセンスでしょう。つまり、カーブフィッティングの際の近似式の選択は、実験者の仮説が入り込んでいるわけです。
一本の直線で表すのは無理そうでも、部分部分でみると直線性があることがあります。だったら、区間を分けて複数の直線を当てはめてみるのも一つの手です。もちろん、そうする動機、すなわち仮説、すなわちデータの分布に対する合理的な説明(仮説)が存在するという前提です。
この解析手法で用いられる関数の名前は英語では、piece-wise linear functionと呼ぶようです。piece-wise linear functionでグーグル検索すると多数のサイトがヒットしました。
複数の直線によるフィッティング

複数の直線による回帰の方法(Python利用例)
区間に分けて直線回帰を行うことは英語だと、piecewise linear regressionというようです。ピースワイズ、つまり「部分ごとに」ということ。
- How to apply piecewise linear fit in Python? stack overflow





Rによる複数の直線の回帰
複数の直線による回帰の方法(MATLABの利用例)

セグメントごとの直線回帰(GraphPadの利用例)
GraphPadでは2つの区間に分けて行う直線回帰はサポートしているようです。3つの区間の場合も手作業でできるようです。
論文
https://www.ams.org/journals/mcom/1961-15-073/S0025-5718-1961-0119390-6/S0025-5718-1961-0119390-6.pdf
Muggeo, V. M. (2003). Estimating regression models with unknown breakpoints. Statistics in medicine, 22(19), 3055-3071.